Հաքերները կարող են խաբել ցանկացած «խելացի» ձայնային օգնականի (տեսանյութ)

Հաքերները կարող են խաբել ցանկացած «խելացի» ձայնային օգնականի (տեսանյութ)

Չինաստանից հաքերները մշակել են DolphinAttack հարձակման կոնցեպցիան, որը թույլ է տալիս ուլտրաձայնային ալիքների միջոցով խաբել և կառավարել «խելացի» ձանային օգնականներին: Alexa-ին, Siri-ին, Cortana-ին և Google Assistant-ին ստիպել կատարել գործողություններ, առանց տիրոջ իմացության և հրահանգի:

Բանն այն է, որ մարդու համար 20 Հց հաճախականությունից ցածր և 20 կՀց-ից բարձր ձայները լսելի չեն, իսկ սմարթֆոնների միկրոֆոնը և «խելացի» սարքերը կարող են ճանաչել այդ ձայները: Չինացի հաքերները ստեղծել են այնպիսի սարքավորում, որը կարող է կարճ հեռավորությունից ակտիվացնել ցանկացած ձայնային օգնականի և ստիպել անել որևէ գործողություն, ինչպես օրինակ՝ հաղորդագրություն ուղարկել բանկ՝ գումար փոխանցելու հրահանգով և այլն: Միակ թերությունն այն է, որ հարկավոր է սարքը կես մետրից ոչ հեռու տեղակայված լինի:

Այս խոցելիությունն ուղղելը այնքան էլ հեշտ չէ, քանի որ ձայնային օգնականներ մշակող ընկերությունները, չեն կարող նոր թարմացմամբ այնպես անել, որ դրանք չընդունեն մարդու համար լսելի դիապազոնից դուրս հաճախականությամբ հրահանգները: