Alexa, Siri e Google Assistant: così i ladri possono usare gli assistenti vocali a loro vantaggio

I ladri potrebbero usare Alexa, Siri e Google Assistant a loro vantaggio. Ecco in che modo, anche gli assistenti vocali sono un pericolo.

Negli ultimi anni, i vari sistemi di domotica disponibili sul mercato stanno ottenendo un successo senza precedenti. Sempre più persone decidono di trasformare la propria casa in smart, andando ad integrare assistenti vocali a prodotti per la casa che possano connettersi ad un’unica rete WiFi. In modo che il proprietario possa impartire comandi semplicemente utilizzando la propria voce.

Ecco cosa rischia chi usa Alexa, Siri o Google Assistant
Alexa, Siri e Google Assistant vulnerabili ai ladri – Tecnozoom.it

Quello che però probabilmente non avete mai tenuto in considerazione, se anche voi avete trasformato la vostra casa tramite la domotica, è che anche i ladri potrebbero sfruttare questo sistema a loro vantaggio. Sono state effettuate alcune ricerche a riguardo, e i risultati sono piuttosto preoccupanti. Ecco tutto quello che dovreste sapere e come fare per difendervi al meglio da eventuali conseguenze disastrose.

Alexa, Siri e Google Assistant per i ladri: ecco come sfruttano gli assistenti vocali

Vi sembrerà incredibile, ma i ladri sono in grado di sfruttare gli assistenti vocali per la casa come Alexa, Siri e Google Assistant a proprio favore. Il tutto grazie ad una vulnerabilità rilevata nell’ultimo periodo e che dà la possibilità a malintenzionati di iniettare comandi impercettibili ed invisibili da remoto. Avendo così controllo di intere porzioni di casa.

Assistenti vocali e vulnerabilità, non sono a prova di ladro
Come i ladri potrebbero sfruttare le vulnerabilità degli assistenti vocali – Tecnozoom.it

L’errore in questione viene chiamato Light Commands e va a riguardare tutti i microfoni MEMS. Come potete immaginare, se un ladro riesce ad impartire comandi vocali di nascosto tramite assistente vocale, potrebbe portare a conseguenze disastrose. Per esempio potrebbe sbloccare le porte domestiche, individuare e avviare veicoli, accendere e spegnere le luci e molto altro.

Entrando più nel tecnico, la vulnerabilità è dovuta al fatto che i microfoni convertono il suono in segnali elettrici. Ma reagiscono anche alla luce diretta su di loro. Ecco perché i ladri spessi recono a modulare un segnale elettrico dell’intensità di un raggio di luce, così da indurre i microfoni stessi a produrre segnali come se avessero ricevuto un audio autentico.

Un team di esperti ha effettuato alcuni interessanti test in laboratorio, dimostrando come in certi casi sia semplicissimo manipolare Siri, Alexa e Google Assistant a proprio piacimento. Con possibili conseguenze letali per le case dei consumatori. E la cosa incredibile è che ad essere vulnerabili sono anche alcuni modelli di smartphone datati come l’iPhone XR, il Galaxy S9 e il Google Pixel 2.

Impostazioni privacy