I ladri potrebbero usare Alexa, Siri e Google Assistant a loro vantaggio. Ecco in che modo, anche gli assistenti vocali sono un pericolo.
Negli ultimi anni, i vari sistemi di domotica disponibili sul mercato stanno ottenendo un successo senza precedenti. Sempre più persone decidono di trasformare la propria casa in smart, andando ad integrare assistenti vocali a prodotti per la casa che possano connettersi ad un’unica rete WiFi. In modo che il proprietario possa impartire comandi semplicemente utilizzando la propria voce.
![Ecco cosa rischia chi usa Alexa, Siri o Google Assistant](https://www.tecnozoom.it/wp-content/uploads/2023/10/alexa-20231023-tecnozoom.it_.jpg)
Quello che però probabilmente non avete mai tenuto in considerazione, se anche voi avete trasformato la vostra casa tramite la domotica, è che anche i ladri potrebbero sfruttare questo sistema a loro vantaggio. Sono state effettuate alcune ricerche a riguardo, e i risultati sono piuttosto preoccupanti. Ecco tutto quello che dovreste sapere e come fare per difendervi al meglio da eventuali conseguenze disastrose.
Alexa, Siri e Google Assistant per i ladri: ecco come sfruttano gli assistenti vocali
Vi sembrerà incredibile, ma i ladri sono in grado di sfruttare gli assistenti vocali per la casa come Alexa, Siri e Google Assistant a proprio favore. Il tutto grazie ad una vulnerabilità rilevata nell’ultimo periodo e che dà la possibilità a malintenzionati di iniettare comandi impercettibili ed invisibili da remoto. Avendo così controllo di intere porzioni di casa.
![Assistenti vocali e vulnerabilità, non sono a prova di ladro](https://www.tecnozoom.it/wp-content/uploads/2023/10/siri-20231023-tecnozoom.it_.jpg)
L’errore in questione viene chiamato Light Commands e va a riguardare tutti i microfoni MEMS. Come potete immaginare, se un ladro riesce ad impartire comandi vocali di nascosto tramite assistente vocale, potrebbe portare a conseguenze disastrose. Per esempio potrebbe sbloccare le porte domestiche, individuare e avviare veicoli, accendere e spegnere le luci e molto altro.
Entrando più nel tecnico, la vulnerabilità è dovuta al fatto che i microfoni convertono il suono in segnali elettrici. Ma reagiscono anche alla luce diretta su di loro. Ecco perché i ladri spessi recono a modulare un segnale elettrico dell’intensità di un raggio di luce, così da indurre i microfoni stessi a produrre segnali come se avessero ricevuto un audio autentico.
Un team di esperti ha effettuato alcuni interessanti test in laboratorio, dimostrando come in certi casi sia semplicissimo manipolare Siri, Alexa e Google Assistant a proprio piacimento. Con possibili conseguenze letali per le case dei consumatori. E la cosa incredibile è che ad essere vulnerabili sono anche alcuni modelli di smartphone datati come l’iPhone XR, il Galaxy S9 e il Google Pixel 2.