imagazin arrow2-left arrow2-right arrow2-top arrow-up arrow-down arrow-left arrow-right cart close dossiers education fb instagram menu notification oander rss rss-footer search service shuffle speech-bubble star store stores tests twitter youtube

Digitalni asistenti bi mogli doneti ozbiljne sigurnosne rizike


Dajemo im sve veću moć, ali se zapravo ne brinemo o odgovarajućoj sigurnosti. Istraživači su pronašli način da stvore zvuk koji ljudske uši ne mogu primetiti, ali on može upravljati digitalnim asistentima. Iako nas Apple štiti, definitivno bi se trebali zabrinuti!

Iako uglavnom zbog jezičkih barijera ova tehnologija nije toliko rasprostranjena kod nas, činjenica je da digitalni asistenti zauzimaju sve više i više mesta u našim svakodnevnim životima.

Čak ni prosečni pametni dom ne može raditi bez centralnog sistema koji ima glasovnu kontrolu. Jednostavno možete postaviti HomePod, Alexu ili bilo koji Google-ov uređaj u sredinu i možete povezati sve vaše uređaje poput aparata za kafu, rasvete, pametne brave na ulaznim vratima i reći “svevidećem oku” šta da učini sa njima. Veoma praktično, cool i sci-fi, ali kako se ispostavilo, i ne tako sigurno.

Mogli ste čuti primere poput devojčice koja je naručila kuću za lutke na internetu pomoću asistenta ili za epizodu South Parka koja se narugala mnogim domaćinstvima. Iako bi se te priče na prvi pogled mogle činiti smešnim, nedavno istraživanje bi vas moglo zabrinuti.

Istraživači Univerziteta u Kaliforniji i Univerziteta u Georgetownu su udružili svoje snage i pronašli način da hakuju asistente pomoću malog trika. Napadaju ih skrivanjem različitih komandi u muzici ili glasovnim zapisima koje ljudsko uho ne može primetiti, ali asistenti mogu.

Drugim rečima, dok vi mislite da slušate muziku, Siri u pozadini na vašem računu počinje upotrebljavati usluge koje se plaćaju.

Prilično zastrašujuće, zar ne? I ako tome dodate da u današnje vreme skoro sve može biti pod kontrolom asistenata, ova ranjivost predstavlja prilično veliki rizik. Otključavanje radijskih emisija, ‘trolovanje’ disko hitova, podcasti koji se kupuju – mogućnosti su beskrajne.

Ovaj napad se zasniva na obrnutom procesu prepoznavanja govora. Ako znate kako asistent prepoznaje govor i dobija sve informacije, možete lako kreirati unos koji je dovoljan za uši asistenta, ali ne i za naše. Osnovnu metodu, DolphinAttack, je prošle godine predstavila grupa američko-kineskih istraživača. Trenutno istraživanje je to odvelo korak dalje, sa mogućnošću da dodaju ove znakove i u muziku. Evo kako DolphinAttack funkcioniše:

Istraživači su takođe dodali da nemaju informacije o tome da neko već ima ovu tehnologiju ili o napadima koji se zasnivaju na ovoj metodi. Ali sumnjaju da bi mnogi mogli raditi na tome.

Sada je vreme da programeri pronađu nešto što će nas zaštititi od takvih napada. Apple nas trenutno štiti zato što se mnoge radnje mogu sprovesti samo nakon provere validnosti, ali nije zgoreg biti oprezan.

Izvor: MacRumors

iPad
Apple Inc. (AAPL)

Have you read this?

To je apsurdno. Neki ljudi jednostavno ne razumeju našu kompaniju. Čvrsto verujem da će sve pre ili kasnije doći na svoje mesto, dok god su korisnici zadovoljni. Nismo usmereni na zaradu, već na dugoročan razvoj.

To je apsurdno. Neki ljudi jednostavno ne razumeju našu kompaniju. Čvrsto verujem da će sve pre ili kasnije doći na svoje mesto, dok god su korisnici... - Click here!