Embedded AI: intelligenza artificiale per decisioni decentralizzate ai margini della rete

L'intelligenza artificiale integrata sta spostando l'intelligenza artificiale dal cloud direttamente ai dispositivi ai margini della rete. Questo sviluppo è guidato da hardware a risparmio energetico, elaborazione locale dei dati e processo decisionale in tempo reale. Le tecniche avanzate di compressione e ottimizzazione stanno diventando sempre più indispensabili.

Generazione automatica di codice da Matlab. (Fonte: MathWorks)

L'intelligenza artificiale integrata sta diventando sempre più un elemento centrale dei moderni sistemi edge. Con questa tecnologia, l'intelligenza artificiale si sta spostando dal cloud direttamente dove è necessaria: ai dispositivi ai margini della rete. L'hardware incorporato a basso consumo energetico garantisce un risparmio di costi e di energia. L'elaborazione locale protegge i dati e consente il funzionamento offline, mentre l'intelligenza artificiale ai margini della rete supporta il processo decisionale in tempo reale con una latenza minima. Tutto ciò è necessario per i sistemi autonomi e l'automazione industriale.

Mercato in rapida crescita grazie all'hardware specializzato

Il mercato dell'intelligenza artificiale incorporata è in rapida crescita, grazie a componenti hardware specializzati come le unità di elaborazione neurale (NPU) e le architetture eterogenee che vengono sempre più spesso integrate direttamente nei microcontrollori e nei sistemi su chip (SoC). Questo pone agli ingegneri la sfida di implementare modelli complessi su dispositivi con memoria e risorse di calcolo limitate. Tecniche come la quantizzazione, il pruning e altri metodi di compressione dei modelli sono quindi essenziali. Oltre all'hardware, librerie e strumenti potenti stanno diventando sempre più importanti per rendere l'IA utilizzabile in modo affidabile su piattaforme diverse.

Un esempio concreto di questa tendenza è la combinazione del riconoscimento delle parole sveglia con il riconoscimento e il tracciamento degli oggetti sulle piattaforme Qualcomm Snapdragon. Per il riconoscimento degli oggetti vengono utilizzate reti basate su YOLOX, mentre l'inferenza è affidata alla NPU Hexagon. La NPU viene attivata solo se in precedenza è stata emessa una parola d'ordine corrispondente (segnale audio), riconosciuta da una seconda NPU più efficiente dal punto di vista energetico. Questo approccio mostra come le architetture eterogenee che combinano una NPU a basso consumo con un DSP Hexagon permettano di svolgere attività di elaborazione delle immagini in tempo reale mantenendo l'efficienza energetica.

Generazione di codice con deep learning. (Fonte: MathWorks)

Spostamento a sinistra per un'intelligenza artificiale intelligente

Con l'aumento della complessità dell'intelligenza artificiale incorporata, aumenta anche la necessità di processi di flusso di lavoro chiaramente strutturati. La progettazione basata su modelli fornisce un quadro di riferimento per questo: Invece di scrivere codice di basso livello, gli ingegneri modellano visivamente i loro algoritmi in Simulink. Requisiti, modelli e artefatti di test vengono riuniti in un filo digitale standardizzato, che supporta la collaborazione e la tracciabilità durante l'intero ciclo di vita del prodotto.

Un vantaggio fondamentale di questo approccio è la validazione precoce. Con l'aiuto dei test hardware-in-the-loop (HIL) e processor-in-the-loop (PIL), è possibile riconoscere i potenziali problemi in una fase iniziale e accelerare lo sviluppo, in linea con il principio dello «shift left». Il funzionamento di questo approccio può essere spiegato con un esempio tratto dall'industria automobilistica. Nella pianificazione e nel controllo della traiettoria basati sull'intelligenza artificiale su Infineon AURIX TC4x, i controllori a rete neurale vengono progettati e convalidati utilizzando la progettazione basata su modelli prima dell'implementazione. Utilizzando un'unità di elaborazione parallela (PPU) sull'hardware, questa soluzione raggiunge un'accuratezza superiore del 50% e un risparmio energetico del 5% rispetto agli approcci convenzionali: un esempio di come i flussi di lavoro strutturati e l'ottimizzazione consapevole dell'hardware producano vantaggi tangibili.

Da Matlab al microcontrollore

MathWorks offre un ambiente integrato per lo sviluppo e l'implementazione dell'intelligenza artificiale sui sistemi embedded. Gli ingegneri possono progettare e addestrare i propri modelli in Matlab o importare modelli pre-addestrati da framework come PyTorch, TensorFlow e ONNX. Con l'aiuto di strumenti di generazione automatica del codice come Matlab Coder e GPU Coder, questi modelli possono essere tradotti in codice C, C++, CUDA o HDL ottimizzato per CPU, GPU, FPGA e MCU. In questo modo si colma il divario tra la progettazione di alto livello e l'implementazione hardware.

I flussi di lavoro di ottimizzazione per la quantizzazione, la potatura e la compressione sono integrati nella catena di strumenti. Essi consentono l'utilizzo su dispositivi con risorse limitate senza compromettere le prestazioni. Inoltre, strumenti di verifica come Polyspace garantiscono un'ulteriore affidabilità analizzando il codice generato in modo statico e dinamico, rilevando gli errori nelle prime fasi del ciclo di sviluppo o dimostrandone l'assenza. Queste funzioni sono particolarmente importanti nelle aree critiche per la sicurezza, per garantire la conformità e la robustezza.

Un esempio pratico di questo flusso di lavoro è la previsione della temperatura dei motori elettrici su hardware TI C2000. I modelli di sensori virtuali vengono sviluppati e addestrati in Matlab o Python, compressi per l'uso e convalidati mediante test in loop del processore. Questo approccio sostituisce i sensori fisici con funzioni di stima basate su software, riducendo i costi e la complessità e mantenendo o addirittura aumentando la precisione.

Utilizzo in numerose aree di applicazione

L'intelligenza artificiale incorporata viene già utilizzata in numerose aree applicative: nel settore sanitario, ad esempio, viene impiegata per l'elaborazione del segnale in tempo reale nell'analisi dell'ECG su schede STM32. Qui si combinano algoritmi di apprendimento profondo e di elaborazione del segnale. I dati dei sensori possono essere elaborati in tempo reale con l'aiuto della generazione automatica di codice C/C++. Le soluzioni AI integrate sono utilizzate anche nel campo della sicurezza sul lavoro: il riconoscimento dei dispositivi di protezione individuale su Raspberry Pi e il riconoscimento della posa su piattaforme Nvidia Jetson mostrano come l'elaborazione delle immagini e l'accelerazione GPU integrate consentano soluzioni AI compatte e potenti per il monitoraggio e la conformità.

Questi esempi sono indicativi di una tendenza più ampia: l'intelligenza artificiale incorporata non è più una tecnologia di nicchia, ma sta diventando uno standard per i sistemi intelligenti in vari settori. Grazie a flussi di lavoro strutturati e all'uso di toolchain integrati, gli ingegneri possono accelerare i processi di sviluppo, garantire l'affidabilità e ottimizzare le prestazioni per le implementazioni edge. Mentre l'intelligenza artificiale generativa e i flussi di lavoro avanzati si avvicinano sempre di più all'edge, i metodi efficienti e l'ottimizzazione dell'hardware saranno la chiave per realizzare il loro pieno potenziale.

MathWorks presenterà diversi argomenti chiave e scenari applicativi a ingegneri e sviluppatori in occasione dell'Embedded World, che si terrà dal 10 al 12 marzo 2026 a Norimberga (Padiglione 4, Stand 110) in una serie di presentazioni specialistiche. I visitatori dello stand potranno approfondire varie dimostrazioni, tra cui la pianificazione della traiettoria basata sull'intelligenza artificiale su Infineon AURIX TC4x, il tracciamento di oggetti su Qualcomm Snapdragon, il calcolo della temperatura basato sull'intelligenza artificiale per i motori elettrici e l'elaborazione del segnale in tempo reale sui dispositivi IoT.

Questo articolo è apparso originariamente su m-q.ch - https://www.m-q.ch/de/embedded-ai-kuenstliche-intelligenz-fuer-dezentrale-entscheidungen-am-netzwerkrand/

Cinque consigli per una maggiore protezione dei dati nella vita quotidiana

Il 28 gennaio 2026 si celebra la Giornata europea della protezione dei dati. Chester Wisniewski, Director Global Field CTO di Sophos, fornisce cinque consigli pratici per una maggiore sicurezza dei dati. Al centro c'è l'appello che ogni individuo possa mantenere il controllo sui propri dati personali.

Chester Wisniewski, direttore CTO globale di Sophos. (Immagine: Sophos)

La Giornata europea della protezione dei dati, che si celebra il 28 gennaio, ricorda l'importanza della protezione dei dati dal 1981. Chester Wisniewski di Sophos coglie l'occasione per lanciare un appello: «La Giornata della protezione dei dati dovrebbe ricordarci quanto sia importante la crittografia per proteggere i nostri dati da spionaggio e violazioni indesiderate». Dopo le rivelazioni della NSA da parte di Edward Snowden, quasi 13 anni fa, la lotta per la crittografia end-to-end è continuata, più recentemente nella disputa sul controllo delle chat.

Backdoor e diritti di accesso eccessivi sono problematici. Numerose aziende tecnologiche americane sono state ingannate da criminali informatici come LAPSUS$ e Scattered Spider, che si sono spacciati per forze dell'ordine per ottenere un presunto «accesso legittimo» ai dati personali. La crittografia consente di condividere esattamente ciò che si vuole condividere con chi e quando. Se l'utente ha il controllo, può condividere i dati in modo sicuro e con il suo consenso.

Selezionare le password più adatte

L'esperto di Sophos consiglia innanzitutto di sostituire le vecchie password con altre nuove, preferibilmente con l'autenticazione a due fattori (2FA). Poiché di solito ci sono numerosi account, ognuno con la propria password, un gestore di password è un buon supporto per creare e gestire tutti i dati di accesso. Questi proteggono anche dai siti web fasulli, poiché li riconoscono e non rivelano la password in caso di dubbio. Il 2FA non causa quasi nessun problema, ma è un ostacolo maggiore per i truffatori.

Controllare le impostazioni di protezione dei dati

Con la maggior parte dei sistemi operativi, delle app e degli account online, gli utenti possono decidere autonomamente quanto divulgare. Ogni app del vostro smartphone deve conoscere la vostra posizione attuale? Si vuole rimanere connessi al proprio account online preferito per comodità? L'app ha il permesso di pubblicare post a nome dell'utente sui suoi social media? Poiché non esiste una funzione di impostazione generale per tutte le applicazioni, l'unica opzione è controllare ogni account e decidere individualmente cosa consentire o meno.

Non condividete nulla senza autorizzazione

Questa regola dovrebbe valere per ogni utente dei social media: Prima di postare una foto in cui sono presenti altre persone, chiedete se è lecito farlo. Le informazioni contenute nella foto potrebbero non solo influenzare i rapporti con i familiari e i datori di lavoro, ma anche rivelare inavvertitamente cose come il luogo di residenza, il compleanno e le vacanze ai criminali informatici, che potrebbero usarle contro di voi, ora o molto tempo dopo.

Cura speciale sul lavoro

Questa regola ha un impatto ancora più severo a livello aziendale: La trasmissione di dati aziendali, sia interni che provenienti da clienti o fornitori, non solo potrebbe essere di grande interesse per i criminali informatici, ma potrebbe anche avere conseguenze legali per l'azienda e per il vostro stesso posto di lavoro.

Conoscere i propri limiti

Che valore hanno per me i miei dati? Con questo atteggiamento individuale, ogni richiesta di informazioni personali può essere decisa con chiarezza. Risparmi sui costi, informazioni, comodità, ma anche tutele contrattuali o legali richiedono a volte più o meno dati. Spetta all'utente chiedere e, in caso di dubbio, dire di no.

Il 28 gennaio si commemora la Convenzione europea sulla protezione dei dati del 1981, il primo accordo intergovernativo giuridicamente vincolante sulla protezione dei dati e strumento internazionale per la protezione dei dati personali.

Fonte: Sophos

Questo articolo è apparso originariamente su m-q.ch - https://www.m-q.ch/de/fuenf-tipps-fuer-mehr-datenschutz-im-alltag/

I danni causati dalle frodi dei falsi presidenti si moltiplicano

L'intelligenza artificiale (AI) fa il gioco dei criminali dei colletti bianchi: diventano più professionali, colpiscono più spesso e causano danni finanziari sempre maggiori alle aziende. Secondo le ultime statistiche di Allianz Trade, i danni alle aziende causati da tutte le truffe di social engineering sono aumentati del 60 %.

Le truffe generate dall'intelligenza artificiale, come la frode del falso presidente, sono in aumento. (Immagine: Depositphotos.com)

Le ultime statistiche sulle perdite di Allianz Trade rivelano una chiara tendenza al rischio: nel 2024, le perdite finanziarie causate da truffe di falsi residenti sono triplicate (+200 %) e aumenteranno di un ulteriore 81% nel 2025, nonostante il calo del numero di casi. Anche le frodi ai danni dei clienti stanno vivendo una rinascita: con un aumento delle perdite del 139% e un incremento del 61% dei casi, questa truffa ha sostituito le frodi sui pagamenti come forma più comune di ingegneria sociale.

Reati professionalizzati grazie all'IA

«Stiamo assistendo a un gioco molto dinamico tra aggressori e aziende», spiega Marie-Christine Kragh, Global Head of Fidelity di Allianz Trade. «Grazie all'IA generativa, i tentativi di frode stanno raggiungendo un livello di perfezione che lascia poco spazio ai dubbi, anche tra i dipendenti più preparati».»

E-mail impeccabili, video deepfake ingannevolmente autentici e imitazioni vocali realistiche aumentano notevolmente il tasso di successo. Secondo Allianz Trade, le perdite medie si aggirano intorno al milione di euro, mentre i singoli casi raggiungono cifre a due zeri.

Doppio colpo con un semplice tasto: il phishing incontra l'ingegneria sociale

Anche le barriere all'ingresso per i criminali informatici stanno diminuendo. «Molti criminali oggi non hanno quasi bisogno di competenze informatiche», afferma Dirk Koch, Certified Ethical Hacker e partner dello studio legale ByteLaw. «Gli strumenti di phishing e vishing sono disponibili a basso costo sulla darknet: una combinazione di accesso iniziale tecnologicamente supportato e comunicazione di connessione manipolativa è spesso sufficiente a paralizzare un'azienda». Koch parla di uno «scacco matto in due mosse»: Prima l'accesso al sistema compromesso, poi l'attacco mirato ai processi decisionali e di pagamento.

Gli autori di reati domestici restano il rischio maggiore

Oltre agli attacchi esterni, sta crescendo la minaccia dall'interno dell'azienda. Secondo Allianz Trade, nel 2025 il 65% delle maggiori perdite finanziarie è stato causato da casi interni. «La maggior parte delle perdite può essere ricondotta ai dipendenti, una verità scomoda ma centrale», afferma Kragh. La crescente creatività è impressionante: dall'appropriazione indebita di beni di lusso ai sistemi interni di «shop-in-shop».

Prevenzione: è necessaria un'architettura di sicurezza a più livelli

Per i CFO e i responsabili della sicurezza, ciò si traduce in una chiara necessità di azione. Koch raccomanda una combinazione di linee di difesa tecniche, organizzative e culturali:

  • Base tecnica: Autenticazione a più fattori resistente al phishing, firme e-mail verificate, filtri basati sull'intelligenza artificiale e architetture a fiducia zero.

  • Misure organizzative: coerenti Principio dei quattro occhi, conferme fuori banda per le modifiche dei dati di pagamento, analisi continua dei processi.

  • Reattività: Strutture di risposta rapida agli incidenti per consentire il recupero degli importi.

Le persone come fattore più critico

Nonostante la tecnologia, l'uomo rimane il punto debole centrale. Gli attacchi di social engineering mirano specificamente alle emozioni: autorità, pressione o situazioni di crisi create artificialmente. «La combinazione di pressione temporale, fattori emotivi e richieste di infrangere le regole dovrebbe far suonare un campanello d'allarme», avverte Kragh. Una cultura dell'errore aperta e linee di comunicazione chiare tra dipendenti e manager sono considerate le leve più efficaci per smascherare tempestivamente i tentativi di manipolazione.

Fonte: Alleanza commerciale

Questo articolo è apparso originariamente su m-q.ch - https://www.m-q.ch/de/schaeden-durch-fake-president-betrug-vervielfachen-sich/

L'intelligenza artificiale appesantisce e rafforza le reti in egual misura

L'era dell'intelligenza artificiale comporta sfide importanti per l'infrastruttura di rete delle aziende. La buona notizia è che la loro padronanza aprirà nuove opportunità. Opengear, fornitore di soluzioni di gestione fuori banda per la protezione delle infrastrutture critiche, analizza da vicino le tre sfide e le opportunità più importanti.

Il traffico di dati generato dalle applicazioni di intelligenza artificiale sta portando le reti ai loro limiti. (Immagine: Depositphotos.com)

Sempre più organizzazioni si rivolgono a reti definite dal software, come la SD-WAN, e all'orchestrazione della loro infrastruttura tramite il cloud per soddisfare la fame di prestazioni delle applicazioni e dei carichi di lavoro AI. Tuttavia, nonostante i progressi in queste aree, tre sfide caratterizzano questa nuova era della connettività:

Sfida #1: sovraccarico del sistema a causa del traffico elevato 

I cluster di intelligenza artificiale richiedono requisiti energetici e di larghezza di banda ben oltre i limiti convenzionali: un singolo rack di GPU può generare fino a 100 kilowatt di potenza termica e un traffico di decine di terabit al secondo durante l'elaborazione dei dati, il che comporta carichi enormi a livello fisico e logico. A livello fisico, hardware, cablaggio, alimentazione e raffreddamento raggiungono spesso i loro limiti. Ciò comporta colli di bottiglia della larghezza di banda e hotspot, che aumentano la suscettibilità agli errori. A livello logico, l'enorme traffico di dati sovraccarica le infrastrutture di rete e software, causando congestione del traffico, colli di bottiglia nello storage e rischi per la sicurezza: Le soluzioni di cybersecurity spesso non sono adatte all'elevato flusso di dati e sono quindi meno in grado di riconoscere le anomalie.

Sfida #2: maggiore superficie di attacco ai margini

L'edge computing e la relativa decentralizzazione sono il prerequisito di base per un utilizzo agile dell'IA. Tuttavia, questa infrastruttura IT significativamente più grande e distribuita crea un gran numero di nuovi punti di attacco per gli hacker: ogni sensore, ogni gateway e ogni server remoto diventa un potenziale punto debole che i criminali possono sfruttare per causare, ad esempio, interruzioni di servizio. Le interruzioni mirate ai margini sono particolarmente apprezzate dai criminali informatici per infiltrarsi nei sistemi centrali mentre i difensori sono distratti.

Sfida #3: guasti a cascata dovuti al sovraccarico operativo

Nonostante l'automazione di un numero sempre maggiore di processi di gestione della rete, il carico di lavoro per gli amministratori sta aumentando drasticamente. I motivi sono la carenza di manodopera qualificata e la crescente complessità delle infrastrutture di rete dovuta all'intelligenza artificiale e alle applicazioni edge. Il fattore umano rimane quindi un punto debole critico che aumenta il rischio di configurazioni errate, aggiornamenti mancati o errati e manutenzione reattiva dovuta al sovraccarico operativo. Le due opzioni per mitigare i guasti a cascata che ne derivano sono un grado di automazione ancora maggiore e l'implementazione di soluzioni OOB (out-of-band).

Dirk Schuma, Direttore vendite EMEA Nord di Opengear (Fonte: Opengear)

Tuttavia, l'intelligenza artificiale non pone solo sfide, ma offre alle aziende nuove opportunità per aumentare l'efficienza, la sicurezza e la resilienza, soprattutto in combinazione con le reti fuori banda: 

Opportunità #1: meno tempi di inattività grazie all'analisi predittiva

Gli strumenti di analisi predittiva basati sull'intelligenza artificiale aiutano le aziende a identificare i limiti di capacità, a prevedere le interruzioni e a ottimizzare le finestre di manutenzione. L'era della gestione puramente reattiva della rete sta per finire. L'integrazione di strumenti di automazione NetOps estende queste funzioni, assumendo compiti ricorrenti ed eliminando gli errori di configurazione, due fattori eminenti nel verificarsi dei tempi di inattività.

Opportunità #2: MTTR più basso grazie alle reti che si auto-riparano

L'intelligenza artificiale sta diventando la chiave per reti affidabili e resilienti. Oggi esistono sistemi di intelligenza artificiale che analizzano i dati di telemetria, rilevano le anomalie e avviano automaticamente misure di ripristino anche prima che gli utenti notino un guasto. Le soluzioni intelligenti fuori banda integrano queste capacità mantenendo la connessione alle risorse di rete anche in caso di guasto della rete di produzione. Insieme, le soluzioni AI e OOB costituiscono la base per le reti auto-riparanti e riducono drasticamente il tempo medio di ripristino (MTTR).

Opportunità #3: Modelli ibridi per sistemi legacy e AI-nativi

Le aziende che vogliono rendere la propria infrastruttura di rete adatta al futuro devono armonizzare l'affidabilità delle reti legacy con i vantaggi dell'orchestrazione e del monitoraggio supportati dall'intelligenza artificiale. In questo contesto, una vera modernizzazione non significa semplicemente sostituire i vecchi hardware e software, ma piuttosto integrare in modo significativo le nuove soluzioni in quelle esistenti. La gestione fuori banda aiuta le aziende a raggiungere questo obiettivo, fornendo un livello di controllo universale per i sistemi legacy e quelli all'avanguardia basati sull'intelligenza artificiale.

„La gestione dei sistemi di intelligenza artificiale è un lavoro duro per gli amministratori di rete e mette a dura prova hardware e software“, spiega Dirk Schuma, Sales Manager EMEA North di Opengear. „La combinazione di funzionalità AI e soluzioni out-of-band è un vero e proprio game changer in questo contesto, in quanto ha il potenziale di aumentare in modo significativo la resilienza delle reti“.“

Fonte: Opengear

Questo articolo è apparso originariamente su m-q.ch - https://www.m-q.ch/de/ki-belastet-und-staerkt-netzwerke-gleichermassen/

Simposio sul primo soccorso 2026: L'incidente da vicino!

Il 31 ottobre 2026, presso il KKL di Lucerna, si terrà il 6° Simposio del Primo Soccorritore. L'evento segue un incidente dal primo soccorso sul posto al salvataggio aereo e alla riabilitazione. Circa 25 espositori presenteranno i loro prodotti e servizi, mentre gli esperti parleranno di infortuni sportivi, soccorso aereo, riabilitazione e requisiti di documentazione.

Il 31 ottobre 2026, il Simposio del Primo Soccorritore si terrà nuovamente al KKL di Lucerna. (Immagine: Jonas Weibel / Simposio del Primo Soccorritore)

Il 6° Simposio del Primo Soccorritore, che si terrà il 31 ottobre 2026 presso il KKL di Lucerna, ha un approccio particolare: segue da vicino un incidente, dal primo soccorso sul posto, sull'esempio di un infortunio sportivo, fino al soccorso aereo e al percorso, a volte lungo, di ritorno alla vita. L'evento è rivolto a tutti gli operatori di primo soccorso, principianti, avanzati o professionisti, che si tratti di samaritani, paramedici aziendali, responsabili della sicurezza, privati o organizzazioni blue light.

Primo soccorso per le lesioni sportive

Hanspeter Betschart, primario della clinica sportiva Berit e Chief Medical Officer di Swiss Olympic, parla di vari infortuni sportivi e del primo soccorso necessario. Non si tratta solo di atleti professionisti in occasione di grandi eventi, ma anche di infortuni comuni nello sport amatoriale, ad esempio nei tornei di base, dove molti legamenti crociati si sono lacerati.

Soccorso aereo su terreno accidentato

A volte il trasporto con l'elicottero è inevitabile, perché deve essere effettuato molto rapidamente o perché non c'è altro modo per raggiungere il luogo dell'incidente. Questo vale per escursionisti, sciatori, lavoratori forestali, agricoltori e molti altri. Il dottor Oliver Reisten, direttore medico di Air Zermatt, spiega come funziona un soccorso aereo e cosa possono e devono fare i primi soccorritori.

La via del ritorno alla vita

Spesso i primi soccorritori non sanno cosa sia successo al paziente una volta che i servizi di emergenza sono intervenuti. Il dottor Christian Sturzenegger, primario della clinica di riabilitazione di Bellikon, si occupa dei pazienti che tornano a casa. Nella sua presentazione, utilizza casi di studio per spiegare cosa succede dopo un'operazione in un ospedale per acuti e come i pazienti si reinseriscono nella vita, nella famiglia, nella società e nel lavoro.

Documentazione e protezione dei dati

Dopo un incidente, gli addetti al primo soccorso hanno spesso ancora del lavoro da svolgere. Dovrebbero documentare il loro intervento di primo soccorso, soprattutto se l'incidente è avvenuto sul posto di lavoro. La cosa migliore è farlo durante l'intervento con l'aiuto di un registro, una copia del quale viene consegnata ai servizi di emergenza. Tuttavia, tali registri non devono essere accessibili a tutti. Roger Berger e Bruno Ducceschi del consiglio direttivo dell'Associazione svizzera dei paramedici del lavoro (SVBS) spiegano quando i primi soccorritori dovrebbero documentare i loro interventi e a cosa devono prestare attenzione quando lo fanno.

Programma di formazione e supporto

Il Simposio sui soccorritori 2026, che si terrà nella Sala Lucerna del KKL di Lucerna, pone grande enfasi sul programma di supporto e su altri valori aggiunti. Dopo ogni presentazione, ci sarà tempo e spazio per porre domande ai relatori. Le pause offrono opportunità di discussione e networking e circa 25 espositori presenteranno i loro prodotti, corsi e altri servizi. Tutte le presentazioni saranno tradotte simultaneamente dal tedesco al francese. 3,5 ore saranno accreditate per il certificato IVR e saranno assegnati 2 punti SGAS per la formazione continua.

L'anno scorso, un totale di 420 soccorritori ha partecipato al Simposio dei soccorritori presso il KKL di Lucerna. L'evento congiunto della SVBS e della FIV Hartmann si terrà il 31 ottobre 2026. Ulteriori informazioni e possibilità di registrazione sono disponibili all'indirizzo primo soccorsoymposium.ch. Il termine ultimo per la presentazione delle domande è il 24 ottobre 2026.

Questo articolo è apparso originariamente su m-q.ch - https://www.m-q.ch/de/ersthelfer-symposium-2026-unfall-hautnah/

Google trasforma la vendita al dettaglio in commercio agenziale

All'NRF 2026 di New York, Google mostrerà come lo shopping si stia spostando da un percorso di click a una conversazione, e perché il prossimo salto non si esaurirà con una «ricerca migliore», ma con assistenti AI che combinano scoperta, pagamento e servizio in un unico flusso.

La National Retail Federation (NRF) è considerata il palcoscenico centrale per il «futuro del retail», con un'attenzione particolare alla tecnologia, all'esperienza del cliente, all'omnichannel e all'efficienza. In questo contesto, il CEO di Alphabet e Google Sundar Pichai ha chiaramente classificato l'attuale cambiamento di piattaforma come un cambiamento di piattaforma AI.

Il fulcro della tesi di Google: lo shopping sta diventando «agile».»

Il termine utilizzato da Google è commercio agenziale: gli agenti dell'intelligenza artificiale svolgono attività per conto dei clienti, dalla ricerca dei prodotti alle transazioni e all'assistenza post-vendita. Il CEO di Google Pichai descrive un cambiamento fondamentale: l'AI Mode sposta la ricerca dalle parole chiave alle conversazioni naturali, con l'AI che si occupa del pre-smistamento. Google cita come database lo Shopping Graph con oltre 50 miliardi di elenchi di prodotti, di cui più di 2 miliardi vengono aggiornati ogni ora.

Cosa annuncia in particolare Google

1) Il Protocollo di Commercio Universale (UCP): un linguaggio comune 

UCP è un nuovo standard aperto che funge da linguaggio comune per gli agenti di intelligenza artificiale, gli esercenti e i fornitori di pagamenti nell'intero percorso del cliente. UCP stabilisce uno standard che consente agli agenti e ai sistemi di collaborare tra interfacce utente, organizzazioni e fornitori di pagamenti. UCP è stato progettato per essere intersettoriale e compatibile con i protocolli esistenti, come Agent2Agent (A2A), Agent Payments Protocol (AP2) e Model Context Protocol (MCP). UCP è stato sviluppato insieme a leader del settore come Shopify, Etsy, Wayfair e Target ed è supportato da oltre 20 altre aziende dell'ecosistema del commercio, tra cui American Express, Stripe, Visa e Zalando.

L«»Universal Commerce Protocol" (UCP) collega AI Mode/Gemini con i backend dei rivenditori e standardizza fasi come la scoperta, il carrello, l'identità, il checkout e l'ordine, sulla base di API e standard come MCP e A2A.
Google vuole rendere scalabile l'Agentic Commerce con l'Universal Commerce Protocol (UCP): Uno standard aperto, supportato da un ampio ecosistema di partner, piattaforme, rivenditori e fornitori di pagamenti, da Shopify e Walmart a Visa, Stripe e Zalando.

2) Business Agent: chat di marca direttamente in Google Search

Nuovo è anche il Business Agent: i clienti possono chattare direttamente con i marchi in Search - come con un consulente di vendita virtuale, nella «Brand Voice». L'attivazione e la personalizzazione avvengono tramite il Merchant Center; in futuro sono previsti training con dati propri, insight, offerte e acquisti diretti.

Google AI Commerce: Agente commerciale

3) Offerte dirette: offerte in modalità AI come nuovo annuncio di gioco

Questo nuovo progetto pilota per Google Ads consente agli inserzionisti di presentare offerte esclusive, come ad esempio uno sconto speciale, direttamente in modalità AI per i clienti che sono pronti ad acquistare. Quando gli utenti pongono domande sui prodotti (ad esempio, se cercano un tappeto per la sala da pranzo), l'intelligenza artificiale può non solo suggerire i prodotti adatti, ma anche mostrare direttamente offerte esclusive. La visualizzazione è controllata dall'intelligenza artificiale: con le Offerte dirette, i rivenditori specificano nelle impostazioni della campagna quali offerte vogliono mettere in evidenza e l'intelligenza artificiale decide quando un'offerta è rilevante.

Google AI Commerce - Offerte dirette

4) Gemini Enterprise per l'esperienza del cliente: Shopping + Servizio come unica piattaforma di agenti

Sul fronte del cloud arriva Gemini Enterprise per la Customer Experience (CX): Google sta introducendo una piattaforma centrale che combina shopping e servizio clienti. Sulla base degli ultimi modelli Gemini di Google, sono disponibili agenti AI già pronti e configurabili che possono essere implementati dalle aziende in pochi giorni. Questi agenti possono accompagnare l'intero ciclo di vita del cliente, dalla scoperta di nuovi prodotti alla soluzione di eventuali problemi dopo l'acquisto. L'attenzione si sta spostando da semplici chatbot a concierge digitali proattivi in grado di risolvere autonomamente i problemi e di effettuare transazioni sotto la supervisione delle aziende. I rivenditori statunitensi Lowe's e Kroger sono tra i primi utilizzatori di questi strumenti di agente, mentre Papa John's è la prima azienda a utilizzare l'agente di ordinazione omnichannel di Google Cloud (Food Ordering Agent).

Vanessa Lee, Shopify

Cosa significa questo per il commercio al dettaglio svizzero?

La storia dell'NRF di Google può essere riassunta in una semplice domanda chiave: Come si fa non solo a farsi trovare nelle interfacce AI, ma anche ad arrivare alla conclusione?

1) I dati dei prodotti diventano il «linguaggio» dell'IA

Quando lo shopping diventa conversazionale, i classici feed di parole chiave non sono più sufficienti. I dati sui prodotti devono essere in grado di rispondere alle domande: Cosa si abbina a cosa, quali alternative sono disponibili, quali accessori sono compatibili - e perché il prodotto è la scelta giusta. È proprio in questa direzione che si muove la logica del Merchant Center di Google: abbandonare il puro catalogo per passare a una base di dati che consenta di fornire consigli basati sul dialogo.

2) «Compra dove navighi» accorcia enormemente il viaggio

Con UCP e il checkout in AI Mode/Gemini, Google sposta la conclusione dell'acquisto direttamente al momento della ricerca. Lo shopping viene quindi completato più «nella conversazione»: meno percorsi di clic, meno rimbalzi, conversione più rapida. Si tratta di un'opportunità per i rivenditori, ma anche di un problema architettonico: nel momento in cui il checkout avviene sulle interfacce della piattaforma, la relazione con il cliente deve ancora rimanere con il rivenditore.

Per questo motivo, per i rivenditori svizzeri vale la pena di fare una prima verifica della realtà: i meccanismi di fidelizzazione (prezzi per i membri, bonus, vantaggi) sono già attivi al momento dell'acquisto? I dati delle transazioni e le preferenze confluiscono in modo pulito nel proprio CRM? E il processo post-vendita, dall'assistenza al reengagement, rimane nelle vostre mani? In breve: la piattaforma di checkout può accelerare le transazioni. Il fattore decisivo è che rafforzi anche la relazione che conta dopo.

L«»Assistente per lo shopping« di Google mostra dove si sta dirigendo il commercio: una query (»pianifica il quarto compleanno") diventa un'esperienza di acquisto basata sul dialogo, che include ispirazione, video, un elenco specifico di prodotti e un percorso diretto alla transazione.

3) La voce del marchio diventa operativa

Con il Business Agent, Google mette il marchio dove il retail è più sensibile: nel momento decisionale. Non come un banner, non come un claim, ma come un partner di dialogo. È proprio questo che rende il cambiamento così esplosivo per il branding: la «voce del marchio» si trasforma da asset di comunicazione a istanza operativa di vendita. Improvvisamente, la tonalità non è più qualcosa che viene lucidato nelle campagne, ma diventa una leva di conversione nel dialogo. Se volete vincere, non vi basta un libro sul marchio in formato PDF: Avete bisogno di un manuale per agenti che traduca la gestione del marchio in regole. In altre parole, un linguaggio pulito, verità di prodotto chiare invece di promesse vaghe, no-goes definiti e una brand safety capace di dialogare e di non proteggere gli ambienti pubblicitari, ma di dare risposte.

L«»assistente agli acquisti« diventa un'infrastruttura di vendita al dettaglio controllabile: nell'Agent Builder, i rivenditori definiscono i percorsi di conversazione e di processo (ordini, assistenza, resi), mentre »Conversational Insights" mostra in tempo reale cosa sta facendo l'assistente, dal tasso di contenimento e CSAT all'aumento misurabile delle vendite.

Inoltre, la buona volontà è un marchio e viene «comunicata» fin dalle prime fasi dello shopping basato sugli agenti. Resi, cambi, garanzie e problemi di consegna non sono solo dettagli di servizio, ma parte della personalità del marchio. E anche il cross-selling assume una nuova qualità: non è un trucco di upselling, ma una gestione della relazione utile al momento giusto, come un concierge digitale. Questa è un'opportunità per il commercio al dettaglio svizzero, perché il settore tradizionalmente vive di consulenza, affidabilità e fiducia, e sono proprio questi punti di forza che ora possono essere scalati digitalmente. La domanda chiave non è quindi: «Abbiamo bisogno di un agente?». Ma piuttosto: Se il nostro marchio parla nel futuro - come dovrebbe vendere?

Conclusione

All'NRF 2026 Google non presenterà un «refresh della ricerca», ma piuttosto una nuova architettura: la ricerca AI come interfaccia di assistenza, l'UCP come livello di transazione, gli agenti come nuovi touchpoint e gli annunci pubblicitari come assistenti di completamento contestuali. Il compito dei rivenditori svizzeri è quello di preparare i dati, le offerte, la voce del marchio e il servizio in modo che funzionino in un mondo di acquisti basato sugli agenti.

 

Stefan Riedle è il nuovo Direttore Qualità di SAP Svizzera

Stefan Riedle assume con effetto immediato il ruolo di Direttore Qualità di SAP Svizzera. Con Riedle, SAP si avvale di un esperto di qualità di comprovata esperienza che ha contribuito a plasmare l'azienda per oltre due decenni.

Stefan Riedle, nuovo direttore della qualità di SAP. (Immagine: zVg)

Stefan Riedle lavora in SAP da 21 anni, un periodo di tempo eccezionalmente lungo in cui è passato da consulente senior a pilastro centrale della gestione della qualità. In vari ruoli, ha aiutato numerosi clienti importanti a ridurre al minimo i rischi, ad aumentare gli standard di qualità e a realizzare il valore aggiunto aziendale. Secondo il comunicato, la sua profonda familiarità con le tecnologie SAP, il suo approccio analitico e la sua ampia rete lo rendono il candidato ideale per il nuovo ruolo. «Con Stefan Riedle, Swiss Quality Management acquisisce un leader che conosce SAP, i nostri clienti e i nostri processi come nessun altro», sottolineano Sabrina Storck e Thomas Schreitmüller, co-direttori di SAP Svizzera. «Il suo approccio analitico, la sua calma e la sua capacità di rendere comprensibili questioni complesse sono fattori di successo fondamentali per l'ulteriore sviluppo del nostro lavoro sulla qualità.»

Dopo aver completato la sua formazione presso una scuola secondaria tecnica e l'Università di Scienze Applicate di Costanza (HKTWG) per diventare uno specialista IT qualificato, ha iniziato la sua carriera pratica presso Océ Document Technologies. Dopo due anni di formazione presso Océ, è passato a SAP in Svizzera, a cui è rimasto fedele fino ad oggi. Dopo alcuni anni di consulenza tecnologica aziendale, è passato alla gestione della qualità ricoprendo diverse posizioni.

Nel suo nuovo ruolo, Riedle intende concentrarsi su tre aree in particolare: garantire elevati standard di qualità, aumentare ulteriormente la soddisfazione dei clienti e rafforzare la fiducia in SAP a lungo termine. «Per me la qualità non è uno stato finale, ma un processo continuo - nel prodotto, nel servizio e nella collaborazione con i nostri clienti», afferma Stefan Riedle. «Non vedo l'ora di compiere i prossimi passi insieme al nostro team».»

Stefan Riedle è sposato, ha due figli e vive con la sua famiglia nella Svizzera orientale. Gli piace passare il tempo con la famiglia, giocare a biliardo, praticare il jiu-jitsu e, quando gli avanza tempo, occuparsi della sua Ford Bronco del 1992. È anche impegnato in associazioni, tra cui il lavoro con i giovani.

Il cambio di ruoli è legato anche alla partenza di Sabine Brändle e Uwe Neuendorf, che vanno entrambi in pensione dopo molti anni di servizio nella gestione della qualità di SAP Svizzera. Con il loro impegno e la loro professionalità, hanno dato un contributo decisivo all'ulteriore sviluppo del team Active Quality Management.

Fonte: SAP

Questo articolo è apparso originariamente su m-q.ch - https://www.m-q.ch/de/stefan-riedle-wird-neuer-quality-director-von-sap-schweiz/

Mettere alla prova l'IA: perché il 2026 determinerà funzionamento, scalabilità e governance

Il 2026 segna un punto di svolta strategico per molte aziende. Le tecnologie chiave del futuro, dall'intelligenza artificiale e dall'edge computing alle moderne piattaforme di dati, stanno convergendo per formare sistemi intelligenti. Queste non solo creano efficienza operativa, ma aprono anche opportunità di business completamente nuove. Allo stesso tempo, le esigenze dell'infrastruttura IT stanno aumentando in modo significativo. Dell Technologies evidenzia tre sviluppi che avranno un impatto significativo sulle strategie di pianificazione e investimento delle aziende nel 2026.

Il 2026 sarà un banco di prova per le strategie di IA di molte aziende. (Immagine: Depositphotos.com)

Oggi la velocità non è più solo un indicatore di performance tecnologica, ma anche un sinonimo della capacità di un'azienda di adattare le decisioni aziendali quasi in tempo reale. Nell'industria, ad esempio, i sistemi intelligenti collegano continuamente i dati di produzione interni con le informazioni esterne provenienti dalle catene di fornitura o dai mercati. Riconoscono tempestivamente rischi quali guasti alle macchine o variazioni della domanda e adeguano automaticamente i piani. Di conseguenza, le linee di produzione rimangono flessibili, le risorse sono utilizzate in modo ottimale e gli impegni di consegna possono essere rispettati in modo affidabile. Anche in ambito finanziario le aziende beneficiano di modelli di rischio costantemente aggiornati. Le transazioni, i movimenti di mercato e il comportamento dei clienti vengono analizzati in tempo reale, in modo che le valutazioni del rischio possano essere ricalcolate su base continuativa. Questo aumenta la reattività e la conformità.

Che cosa significa in termini concreti? Dell Technologies analizza i tre più importanti sviluppi infrastrutturali legati all'IA.

Tendenza n. 1: l'ambiente IT si sta trasformando in una fabbrica modulare di intelligenza artificiale.

L'implementazione di progetti di IA richiede un'infrastruttura estremamente scalabile, che va oltre le possibilità di investimento di molte aziende. Ad esempio, un modello GenAI potente può richiedere centinaia di GPU. In questo contesto, un «data center come servizio» rappresenta un'alternativa interessante. Le aziende ottengono l'accesso alla potenza di calcolo su sistemi informatici specializzati senza dover creare un'infrastruttura propria. In linea di principio, un approccio ibrido ha dimostrato la sua validità, consentendo alle aziende di creare una sorta di «fabbrica dell'intelligenza artificiale». I sistemi edge si occupano dei compiti critici in termini di latenza, gli ambienti di elaborazione centralizzati fungono da livello di formazione e gestione, mentre le capacità del cloud pubblico vengono utilizzate per lo scaling elastico delle informazioni meno sensibili. I dati, quindi, non vengono più spostati in un ambiente generalizzato, ma seguono un modello basato su regole: dove si ottengono i maggiori benefici? Dove il rischio è minore? Dove l'elaborazione ha senso dal punto di vista economico? L'economia basata sui token, in particolare, mette in discussione il cloud, a lungo favorito. Mentre le applicazioni tradizionali generano solitamente carichi di calcolo prevedibili, i carichi di lavoro dell'IA variano notevolmente. Ad esempio, un semplice prompt richiede solo poche centinaia di token, mentre un'analisi completa consuma centinaia di migliaia di token. Nel cloud questo si aggiunge immediatamente. Allo stesso tempo, la questione della sovranità digitale sta diventando sempre più importante. L'elaborazione dei dati e la formazione dei modelli devono essere progettati in modo tale che le aziende possano controllare la propria catena del valore in ogni momento.

Tendenza n. 2: l'economia dell'intelligenza artificiale impone un ripensamento delle soluzioni di storage

Il successo delle applicazioni di IA non dipende solo dalla potenza di calcolo, ma anche dall'efficienza dell'intero stack di IA. Questo include database vettoriali ottimizzati, reti a bassa latenza, memoria scalabile, meccanismi di routing intelligenti e livelli di sicurezza e governance. L'obiettivo è organizzare le chiamate ai modelli, i processi di recupero e le convalide in modo tale che il sistema non solo funzioni in modo accurato, ma conservi anche le risorse. L'ambiente di archiviazione svolge un ruolo particolare in questo caso, poiché i sistemi di IA gestiscono insiemi di dati di diverse centinaia di petabyte. Le architetture di storage tradizionali, come NAS, SAN o i vecchi storage direct-attached, raggiungono i loro limiti in considerazione degli elevati requisiti di aggregazione dei dati e di accesso rapido ai carichi di lavoro. Tuttavia, i colli di bottiglia possono verificarsi anche con un'infrastruttura hyperconverged, soprattutto se i dati sono archiviati su nodi diversi. Inoltre, i componenti di storage e di elaborazione devono essere sempre rinnovati insieme, anche se hanno cicli di modernizzazione diversi. L'intelligenza artificiale accelera questo ciclo costoso: le GPU di solito devono essere aggiornate dopo pochi anni, mentre gli HDD sono molto più duraturi. Le architetture disaggregate offrono una soluzione: le prestazioni di storage e di calcolo sono disaccoppiate. Tramite una rete è disponibile un livello di storage condiviso, che può essere utilizzato da tutti i sistemi contemporaneamente.

Tendenza n. 3: i modelli di piccole dimensioni portano l'intelligenza in profondità nel nucleo operativo

Per molto tempo, il motto «più grande è, meglio è» è stato applicato ai modelli linguistici. Tuttavia, spesso non è così nelle attività quotidiane. Il settore manifatturiero ne è un buon esempio. I modelli linguistici di piccole dimensioni (SLM) possono essere integrati rapidamente nei processi produttivi. A differenza dei modelli AI di grandi dimensioni, possono essere addestrati in poche ore di GPU per compiti specifici come il riconoscimento di deviazioni o la valutazione di rapporti di manutenzione. Tecniche come Low-Rank Adaptation (LoRA) aiutano a integrare spazi di lavoro dedicati senza dover riqualificare l'intero modello. Un altro vantaggio decisivo è l'implementazione locale: gli SLM possono essere utilizzati direttamente su dispositivi edge o in ambienti OT isolati, riducendo al minimo i tempi di risposta e i rischi per la sicurezza. In generale, gli SLM riducono significativamente lo sforzo di calcolo, il consumo energetico e i costi del cloud. Questi modelli compatti sono indispensabili soprattutto per le applicazioni nel campo dell'intelligenza artificiale fisica, poiché i robot autonomi e ad autoapprendimento non funzionerebbero senza l'intelligenza incorporata. Questi robot, ad esempio, riconoscono gli ostacoli durante il trasporto delle merci, adattano dinamicamente i percorsi e imparano continuamente dall'ambiente circostante, come i dipendenti umani.

Amministratore delegato Dell Technologies DACH (Fonte: Dell Technologies)

«Il 2026 sarà un anno in cui le aziende non si chiederanno più se stanno utilizzando l'IA, ma come devono ripensare le loro strutture tecniche e operative in modo che tutto funzioni in modo da creare valore», afferma Tim van Wasen, Managing Director di Dell Technologies DACH. «L'IA pone requisiti elevati all'ambiente IT. Ciò significa anche che le aziende devono trovare il giusto equilibrio tra velocità, sicurezza e costi per armonizzare le priorità e le esigenze più diverse.»

Ulteriori informazioni: Tecnologie Dell

Questo articolo è apparso originariamente su m-q.ch - https://www.m-q.ch/de/ki-auf-dem-pruefstand-warum-2026-ueber-betrieb-skalierung-und-governance-entscheidet/

I decisori IT svizzeri vogliono rimanere sicuri e fiduciosi

Un recente sondaggio condotto da Cisco Svizzera su 200 responsabili IT di aziende svizzere con più di 250 dipendenti mostra che le sfide maggiori sono la sicurezza informatica, i budget IT limitati e la migrazione al cloud: Le sfide maggiori sono rappresentate dalla sicurezza informatica, dai budget IT limitati e dalla migrazione al cloud. Allo stesso tempo, il tema della sovranità digitale sta diventando sempre più importante.

Chris Tighe, amministratore delegato di Cisco Svizzera. (Immagine: zVg / Cisco)

In un recente sondaggio condotto da Cisco in Svizzera, il 38% degli intervistati ha indicato il mantenimento della sicurezza informatica come la più grande sfida informatica generale, seguita da budget limitati (33 %) e migrazione al cloud (32 %). Le aziende sono inoltre sempre più preoccupate per la mancanza di specialisti IT qualificati (30 %) e per la garanzia della sovranità digitale (29 %). Lo studio ha intervistato 200 responsabili IT di aziende svizzere con più di 250 dipendenti.

La sovranità digitale sta diventando sempre più importante

Per i responsabili IT è particolarmente importante che la Svizzera abbia la massima libertà d'azione nello spazio digitale. Il 96% dei responsabili IT ritiene importante che la Svizzera mantenga il controllo sulla propria infrastruttura digitale e sui propri dati. A livello aziendale, altrettanti condividono questa opinione (96 %). In particolare, sono auspicati una strategia nazionale (46%), investimenti nella formazione informatica locale (38%) e lo sviluppo di hardware e software informatici locali (37%).

«I risultati mostrano chiaramente che le aziende svizzere non solo vogliono lavorare in modo sicuro ed efficiente, ma vogliono anche rimanere fiduciose. Si tratta di fattori importanti per rafforzare la forza innovativa, la forza economica e la resilienza dell'economia svizzera», afferma Chris Tighe, Direttore Generale di Cisco Svizzera.

Fattori importanti nella scelta dei prodotti IT

Per i decisori IT, due fattori consolidati rimangono al centro dell'attenzione: i costi e il ritorno sugli investimenti (ROI) (39 %) e la qualità del prodotto (38 %) occupano le priorità 1 e 3, mentre la «compatibilità con l'intelligenza artificiale» (39 %) si sta spostando al secondo posto come parametro importante.

«Ogni decisione IT deve essere economicamente sostenibile, questo è chiaro. L'attenzione alla compatibilità con l'IA è particolarmente importante per la sostenibilità futura della nostra infrastruttura IT. Inoltre, pone le basi per la prosperità della Svizzera», aggiunge Matthias Wick, CTO di Cisco Svizzera.

L'intelligenza artificiale nel lavoro quotidiano

L'indagine mostra anche che l'intelligenza artificiale si è trasformata da una tecnologia visionaria del futuro in un motore fondamentale di trasformazione economica e sociale. Nove su dieci delle aziende svizzere intervistate utilizzano già l'intelligenza artificiale nelle loro attività quotidiane. Si tratta di applicazioni come la comunicazione automatica con i clienti (42%), il riconoscimento delle immagini e il controllo qualità (40%) e l'automazione dei processi, ad esempio tramite robot (37%). L'indice Cisco «AI Readiness» ha inoltre dimostrato che le aziende tedesche sono ambiziose: Oltre l'80% sta pianificando specificamente di sviluppare o sta già utilizzando i cosiddetti agenti AI. Il 37% delle aziende ritiene che gli agenti AI lavoreranno con i dipendenti entro il prossimo anno.

Nel frattempo, la situazione già tesa della sicurezza informatica sta peggiorando. Che si tratti di phishing, ransomware o attacchi basati sull'intelligenza artificiale alle reti aziendali, la situazione delle minacce è in aumento. Ciò rende ancora più importante la sicurezza dell'azienda. Tra i responsabili IT svizzeri intervistati, le seguenti soluzioni di sicurezza informatica sono le più importanti per la loro azienda: sicurezza della rete (40 %), protezione del cloud (37 %) e crittografia dei dati (34 %).

Fonte: Cisco

Questo articolo è apparso originariamente su m-q.ch - https://www.m-q.ch/de/schweizer-it-entscheider-wollen-sicher-und-souveraen-bleiben/

Il pericolo dell'IA nelle PR industriali

In tempi di crisi economica, molte aziende industriali sono tentate di passare a testi standardizzati e generati dalle macchine per risparmiare sui costi. Tuttavia, questa strategia è pericolosa perché può portare a una perdita di fiducia da parte dei clienti e dei media, avverte un esperto di PR.

Patrick Schroeder - giornalista tecnologico, consulente PR e ricercatore in comunicazione (M.A.) mette in guardia dalla perdita di fiducia dovuta al linguaggio dell'IA. (Immagine: zVg / Storie di robot)

ChatGPT, Google Gemini o Claude: l'IA generativa produce comunicati stampa, brochure e testi per siti web in pochi secondi. Anche i social media sono invasi da testi di IA. Prendiamo ad esempio LinkedIn. Le aziende industriali vi pubblicano ogni giorno articoli per i quali prima non erano disponibili né competenze linguistiche né tempo sufficiente.

I testi generati dall'intelligenza artificiale minano la fiducia nelle aziende

Ma c'è un lato oscuro dell'IA che sta diventando sempre più visibile, avverte Patrick Schroeder, esperto di PR per l'industria e giornalista tecnologico a Paderborn da 19 anni. «La maggior parte dei lettori riconosce immediatamente i testi generati dall'IA. Non solo per il trattino citato di frequente. Riconoscono anche la struttura logica superiore alla media, ma sempre simile», afferma Schroeder. «Molte persone, compresi i clienti e i media specializzati, a questo punto perdono fiducia nell'azienda».»

«L'intelligenza artificiale può rendere invisibili le aziende industriali»

Soprattutto nel caso dei post di leadership di pensiero sui social media, non è più trasparente quali pensieri provengano da esseri umani e quali da macchine. «Il mittente stesso diventa nebuloso e non più tangibile, rendendo quasi impossibile creare fiducia», avverte Schroeder. Di conseguenza, sempre più persone ignorano i post dell'IA. Il fenomeno è paragonabile alla banner blindness, ovvero l'ignorare i banner pubblicitari sui siti web. «È un paradosso: le aziende vogliono diventare più visibili attraverso un maggior numero di contenuti di IA, ma ottengono il risultato opposto. È uno sviluppo preoccupante. Soprattutto in tempi economicamente difficili, quando la fiducia è più importante che mai».»

«Lo storytelling rende le aziende industriali tangibili e credibili."

Per il 2026, Schroeder raccomanda alle aziende industriali di costruire la fiducia dei clienti e dei media di settore con contenuti autentici e reali. I resoconti sui progetti di successo dei clienti, ad esempio, sono efficaci. «Lo storytelling offre l'opportunità di riportare l'attenzione sulle persone», spiega Schroeder. «Le aziende diventano tangibili e credibili grazie a questa visione reale della loro vita quotidiana. E questo è essenziale in tempi economicamente turbolenti».»

Fonte e ulteriori informazioni: www.stories-about-robots.de

Questo articolo è apparso originariamente su m-q.ch - https://www.m-q.ch/de/die-gefahr-von-ki-in-der-industrie-pr/

Globetrotter diventa partner principale del Landesmuseum-Hofkino

Il cinema nel cortile del Museo Nazionale di Zurigo si avvale di una nuova partnership principale a partire dal 2026: Globetrotter diventerà il partner principale del format culturale estivo e svilupperà nuovi formati live al di fuori del contesto cinematografico classico nell'anno dell'anniversario.

Nel loro primo anno insieme, la collaborazione si concentrerà sul 50° anniversario di Globetrotter, con attivazioni appositamente sviluppate e due nuovi format che ampliano specificamente il programma dell'Hofkino. Il fine settimana di sabato 27 e domenica 20 giugno 2026 è un punto centrale del programma di collaborazione, con uno spettacolo dal vivo Explora il sabato sera e un format per famiglie la domenica mattina, creando nuovi elementi di programma che completano e ampliano specificamente l'Hofkino.

Sabato sera, 27 giugno 2026, Globetrotter, in collaborazione con Explora, presenterà una serata al cinema Hofkino per celebrare il 50° anniversario di Globetrotter. Uno spettacolo dal vivo di Explora con Louis Palmer sarà proiettato in anteprima esclusiva per l'estate. Explora è sinonimo di reportage dal vivo in cui viaggiatori, avventurieri e fotografi portano in scena le loro storie con immagini, video e racconti personali. Nel suo spettacolo, Palmer combina avventure personali da tutto il mondo con immagini impressionanti, umorismo e prospettive sorprendenti sul nostro rapporto con il mondo. Lo spettacolo dal vivo Explora segna anche l'inizio di un tour Explora più ampio: sono previste almeno altre 16 date con Louis Palmer per l'inverno 2026/27.

La domenica mattina è dedicata alle famiglie e agli incontri: con il «Rendez-Vous with the World»: Family Brunch, Globetrotter porta all'Hofkino uno dei suoi noti format in una nuova veste. Diari di viaggio e intrattenimento per grandi e piccini offriranno un accesso a bassa soglia al mondo dei viaggi. Inoltre, Louis Palmer porterà nel cortile del Museo Nazionale la sua Solar Butterfly, il più grande veicolo a energia solare del mondo, che ha appena fatto il giro del mondo in quattro anni e visitato 48 Paesi, compreso un museo interattivo del clima, come esperienza da vivere a piedi.

Sven Ziörjen, responsabile marketing di Globetrotter, afferma: «Come parte importante delle celebrazioni del 50° anniversario di Globetrotter, non vogliamo solo guardare al passato, ma anche creare nuove esperienze insieme a un partner forte. L'Hofkino offre un palcoscenico ideale per questo: urbano, aperto e vicino alla gente».»

Anche Daniel Frischknecht Knörr, cofondatore e organizzatore della Hofkino, è entusiasta: «Globetrotter si adatta perfettamente alla Hofkino con la sua sete di avventura, la sua curiosità per il mondo e la sua capacità di dare vita alle storie. Questa partnership ci permette di creare nuovi formati che offrono al nostro pubblico un reale valore aggiunto - e di aprire ulteriormente i contenuti di Hofkino».»

SwissAI chiede più chiarezza e competenza nell'affrontare l'IA

L'intelligenza artificiale generativa (AI) può facilitare il lavoro del Parlamento. L'associazione swissAI accoglie quindi con favore l'utilizzo di strumenti di IA da parte del governo federale, ma raccomanda di usarli con cautela.

(immagine simbolica).

L'intelligenza artificiale generativa (AI) può facilitare il lavoro del Parlamento. L'associazione swissAI (ex "KImpact") accoglie quindi con favore l'uso di strumenti di IA da parte del governo federale, perché possono facilitare il lavoro del Parlamento. Tuttavia, raccomanda un uso attento e sicuro. L'associazione, fondata nel 2023 si impegna per un futuro digitale costruttivo per la Svizzera, in armonia con le persone e il progresso tecnologico.

SwissAI scrive in un comunicato stampa: "Il modo in cui il Copilot di Microsoft è stato introdotto in Parlamento e in alcune parti dell'amministrazione federale, invece, è avvenuto senza una decisione ufficiale, senza una chiara governance e senza uno sviluppo sistematico delle competenze. Di conseguenza, si sono perse due opportunità: un'introduzione responsabile dell'IA e un modello di ruolo credibile per le imprese e la società nell'affrontare questa tecnologia".

Il problema: introduzione dell'IA senza controllo e senza formazione

Come ha dimostrato il giornalista freelance e direttore dello studio MAZ Reto Vogt nella sua ricerca per la «NZZ am Sonntag» del 4 gennaio 2026, l'attivazione del Copilot di Microsoft in Parlamento è stata effettivamente effettuata in modo autonomo dall'azienda tecnologica americana - senza una decisione ufficiale del governo federale, senza linee guida chiare, senza responsabilità definite e senza trasparenza. L'introduzione è avvenuta praticamente dalla porta di servizio. Ciò ha creato una zona grigia dal punto di vista legale e della politica di sicurezza.

I membri del Parlamento e i dipendenti dell'amministrazione lavorano con informazioni sensibili e talvolta riservate. Tuttavia, non sono stati introdotti programmi di formazione completi o linee guida vincolanti. Chiunque utilizzi l'IA senza comprenderne il funzionamento, i limiti e i rischi non può assumersi responsabilità né creare fiducia, né all'interno delle istituzioni né nei confronti del pubblico.

L'utilizzo dell'IA: prima di tutto una questione di leadership

Questa situazione rivela un problema fondamentale di governance nella gestione dell'IA. Le istituzioni politiche devono fare chiarezza, seper il quale e in quali condizioni Viene utilizzata l'intelligenza artificiale. Quale concetto di sovranità digitale si applica? Quali dati possono essere elaborati? Chi decide sul suo utilizzo e chi se ne assume la responsabilità? Queste domande devono trovare una risposta politica prima che i sistemi tecnici vengano utilizzati in modo produttivo. Questa consapevolezza manca in molti luoghi.

swissAI consiglia un uso competente e controllato dell'IA

«La nostra democrazia diretta si basa sulla fiducia nelle istituzioni statali e sull'indipendenza da influenze esterne. L'IA è uno strumento potente che può migliorare i nostri processi, ma solo se garantiamo trasparenza, competenza e canali decisionali sovrani», afferma Chris Beyeler, presidente di swissAI.

In questo caso, swissAI raccomanda un approccio in tre fasi che inizia con un chiarimento politico fondamentale. Nell'ambito di un ampio dialogo, il Parlamento dovrebbe definire quali applicazioni dell'IA sono consentite e come salvaguardare a lungo termine la sovranità digitale della Svizzera. Allo stesso tempo, si cerca di creare competenze mirate: Attraverso una valutazione sistematica delle esigenze di formazione e un'ulteriore formazione per il Parlamento e l'amministrazione, mirata a tali esigenze, si vogliono comprendere meglio i rischi e sfruttare in modo proattivo le opportunità. Inoltre, swissAI pone l'accento sul coinvolgimento di competenze esterne. Organismi specializzati indipendenti dovranno sostenere la valutazione tecnica ed etica per garantire che l'introduzione sia in linea con la protezione dei dati e con i valori fondamentali della Svizzera.

Fiducia nella gestione dell'IA

La Svizzera dispone di eccellenti competenze nel campo dell'intelligenza artificiale. Questo potenziale deve essere sfruttato in modo coordinato, responsabile e sovrano. L'Intelligenza Artificiale può essere un vantaggio localizzativo. Tuttavia, deve essere introdotta in modo professionale e non lasciata al caso o a meccanismi di licenza.

Ulteriori informazioni: SwissAI

get_footer();