Google upozorava: 'Ovo je u tri mjeseca eksplodiralo u prijetnju industrijskih razmjera'
Kriminalne skupine koriste komercijalne modele, uključujući Gemini, Claude i alate tvrtke OpenAI, za usavršavanje i povećanje opsega napada
U samo tri mjeseca, hakiranje uz pomoć umjetne inteligencije (AI) preraslo je iz problema u nastajanju u prijetnju industrijskih razmjera, izvijestili su tvrtke Google.
Rezultati Googleove grupe za obavještavanje o prijetnjama nadovezuju se na globalnu raspravu o tome kako su novi AI modeli vješti u programiranju. Oni postaju moćni alati za iskorištavanje ranjivosti u softverskim sustavima.
Kriminalne skupine, kao i akteri povezani s državama poput Kine, Sjeverne Koreje i Rusije, koriste komercijalne modele, uključujući Gemini, Claude i alate tvrtke OpenAI, za usavršavanje i povećanje opsega napada.
"Postoji zabluda da utrka u AI ranjivostima tek dolazi. Stvarnost je takva da je već počela. Napadači koriste AI da bi povećali brzinu, razmjere i sofisticiranost svojih napada, a to im omogućuje testiranje operacija, dugotrajniji pristup metama, razvoj boljeg zlonamjernog softvera i niz drugih poboljšanja", rekao je John Hultquist, glavni analitičar Googleove sigurnosne skupine.
Prošlog mjeseca, AI tvrtka Anthropic odbila je objaviti jedan od svojih najnovijih modela, Mythos, nakon tvrdnje da on posjeduje iznimno snažne sposobnosti te da bi predstavljao prijetnju vladama, financijskim institucijama i svijetu općenito ako dospije u pogrešne ruke, piše The Guardian.
Pronađene 'zero-day' ranjivosti
Konkretno, Anthropic je naveo da je Mythos pronašao "zero-day" ranjivosti (propuste koji su prethodno bili nepoznati razvojnim programerima) u "svakom većem operativnom sustavu i svakom većem web pregledniku".
Tvrtka je izjavila da su ova otkrića zahtijevala "znatnu koordiniranu obrambenu akciju u cijeloj industriji". Međutim, Googleovo izvješće otkrilo je da je jedna kriminalna skupina nedavno bila na pragu iskorištavanja "zero-day" ranjivosti za provođenje kampanje "masovne eksploatacije" – te da je ta skupina očigledno koristila AI jezični model (LLM) koji nije bio Mythos.
Izvješće je također utvrdilo da su skupine "eksperimentirale" s OpenClawom, AI alatom koji je u veljači postao viralan jer je korisnicima nudio mogućnost da prepuste velike dijelove svojih života AI agentu bez ikakvih sigurnosnih ograničenja (guardrails) i s nesretnom tendencijom masovnog brisanja e-pošte.
Steven Murdoch, profesor sigurnosnog inženjerstva na Sveučilišnom koledžu u Londonu, smatra da umjetna inteligencija može pomoći i obrambenoj strani kibernetičke sigurnosti, a ne samo hakerima.
"Zato ne paničarim. Došli smo do faze u kojoj je stari način pronalaženja sigurnosnih propusta nestao i sada će gotovo sve biti potpomognuto velikim jezičnim modelima (LLM). Trebat će malo vremena prije nego što se posljedice ovoga otklone", kazao je.
Pomaže li AI širem gospodarstvu?
Međutim, iako AI pomaže ambicioznim hakerima u postizanju njihovih ciljeva produktivnosti, i dalje postoje sumnje u to pomaže li ona širem gospodarstvu. Institut Ada Lovelace (ALI), neovisno tijelo za istraživanje umjetne inteligencije, upozorio je na preuranjene pretpostavke o povećanju produktivnosti javnog sektora vrijednom više milijardi eura zahvaljujući umjetnoj inteligenciji. Vlada Ujedinjenog Kraljevstva procijenila je dobit od 51 milijarde eura u uštedama i koristima za produktivnost kroz ulaganja javnog sektora u digitalne alate i AI.
U izvješću objavljenom u ponedjeljak, ALI navodi kako se većina studija o povećanju produktivnosti povezanog s AI-jem odnosi na uštedu vremena ili smanjenje troškova, ali ne uzimaju u obzir ishode poput kvalitetnijih usluga ili poboljšane dobrobiti radnika.
Drugi problematični aspekti takvih istraživanja uključuju: jesu li projekcije učinkovitosti povezane s umjetnom inteligencijom na radnom mjestu doista uspješne u stvarnom svijetu; glavne brojke koje prikrivaju različite rezultate korištenja umjetne inteligencije u različitim zadacima; i neuzimanje u obzir utjecaja na zapošljavanje i pružanje usluga u javnom sektoru.
"Procjene produktivnosti koje oblikuju važne vladine odluke o umjetnoj inteligenciji ponekad se temelje na neprovjerenim pretpostavkama i metodologijama čija ograničenja oni koji te brojke koriste u praksi ne razumiju uvijek u potpunosti. Rezultat je jaz između pouzdanosti s kojom se iznose tvrdnje o produktivnosti i snage dokaza koji stoje iza njih", navodi se u izvješću Instituta Ada Lovelace.
Preporuke izvješća uključuju: poticanje budućih studija da odražavaju nesigurnost oko utjecaja tehnologije; osiguravanje da vladini odjeli mjere učinak AI programa "od samog početka"; te podupiranje dugoročnih studija koje mjere porast produktivnosti tijekom godina, a ne samo tjedana.
POGLEDAJTE GALERIJU
POGLEDAJTE VIDEO: Liječnik o metabolizmu, njegovim bolestima i poremećajima: 'Radi se o nizu kemijskih reakcija s jednim ciljem'