Termín zero trust ušel od svého vzniku dlouhou cestu. Z buzzwordu je dnes respektovaný přístup ke kyberbezpečnosti, který v posledních letech implementují firmy po celém světě. V tomto článku si přiblížíme základní prvky zero trustu a důvody proč by měl mít místo v moderním zabezpečení firem a organizací.
Zkoumání oblasti škodlivé generativní umělé inteligence: nové výzvy pro digitální bezpečnost
Seznamte se s FraudGPT a WormGPT
FraudGPT představuje předplatitelskou škodlivou generativní umělou inteligenci, která využívá sofistikované algoritmy strojového učení ke generování klamavého obsahu. Na rozdíl od etických modelů umělé inteligence nezná FraudGPT žádné hranice, což z něj činí univerzální zbraň pro nesčetné nekalé účely. Je schopen vytvářet pečlivě přizpůsobené spear-phishingové e-maily, padělané faktury, smyšlené zpravodajské články a další – to vše lze využít při kybernetických útocích, online podvodech, manipulaci s veřejným míněním, a dokonce i při údajném vytváření “neodhalitelného malwaru a phishingových kampaní”.
Na druhé straně je WormGPT, zlověstný sourozenec FraudGPT, v oblasti podvodné umělé inteligence. WormGPT, vyvinutý jako neschválený protějšek ChatGPT od OpenAI, funguje bez etických zábran a dokáže reagovat na dotazy související s hackerskými a dalšími nezákonnými aktivitami. I když jsou jeho schopnosti ve srovnání s nejnovějšími modely AI poněkud omezené, slouží jako názorný příklad vývojové trajektorie škodlivé generativní AI.
Pozérství GPT zloduchů
Vývojáři a propagátoři FraudGPT a WormGPT neztrácejí čas s propagací svých škodlivých výtvorů. Tyto nástroje založené na umělé inteligenci jsou prodávány jako “startovací sady pro kybernetické útočníky”, které nabízejí řadu prostředků za předplatné, čímž zpřístupňují pokročilé nástroje začínajícím kyberzločincům.
Při bližším zkoumání se ukazuje, že tyto nástroje nemusí nabízet podstatně více, než co by kyberzločinec mohl získat ze stávajících generativních nástrojů AI s kreativním obcházením dotazů. Potenciální důvody mohou pramenit z využití starších modelových architektur a neprůhledné povahy jejich tréninkových dat. Tvůrce WormGPT tvrdí, že jejich model byl vytvořen s využitím různorodých zdrojů dat, přičemž se zaměřil zejména na data související s malwarem. Zdržel se však zveřejnění konkrétních použitých datových sad.
Stejně tak propagační příběh kolem FraudGPT sotva vzbuzuje důvěru ve výkonnost jazykového modelu (LM). Na stinných fórech dark webu jej tvůrce FraudGPT vychvaluje jako špičkovou technologii a tvrdí, že LLM dokáže vyrobit “nezjistitelný malware” a identifikovat webové stránky náchylné k podvodům s kreditními kartami. Kromě tvrzení, že se jedná o variantu GPT-3, však tvůrce poskytuje jen málo informací o architektuře LLM a nepředkládá žádné důkazy o nezjistitelném malwaru, což ponechává prostor mnoha spekulacím.
Jak zlovolní aktéři využijí nástrojů GPT
Nevyhnutelné nasazení nástrojů založených na GPT, jako jsou FraudGPT a WormGPT, je stále vážnou obavou. Tyto systémy s umělou inteligencí mají schopnost vytvářet vysoce přesvědčivý obsah, což je činí atraktivními pro různé činnosti, od vytváření přesvědčivých phishingových e-mailů přes vnucování obětí do podvodných schémat až po generování malwaru. Přestože existují bezpečnostní nástroje a protiopatření pro boj s těmito novými formami útoků, problém se neustále komplikuje.
Některé potenciální aplikace nástrojů generativní umělé inteligence pro podvodné účely zahrnují:
- Vylepšené phishingové kampaně: Tyto nástroje mohou automatizovat vytváření hyperpersonalizovaných phishingových e-mailů (spear phishing) v několika jazycích, čímž se zvyšuje pravděpodobnost úspěchu. Nicméně jejich účinnost při vyhýbání se odhalení pokročilými systémy zabezpečení e-mailů a ostražitými příjemci zůstává sporná.
- Zrychlené shromažďování informací z otevřených zdrojů (OSINT): Útočníci mohou pomocí těchto nástrojů urychlit průzkumnou fázi svých operací a shromažďovat informace o cílech, včetně osobních údajů, preferencí, chování a podrobných firemních údajů.
- Automatizované generování malwaru: Generativní umělá inteligence má znepokojivý potenciál generovat škodlivý kód a zjednodušit tak proces vytváření malwaru i pro osoby bez rozsáhlých technických znalostí. Nicméně i když tyto nástroje mohou generovat kód, výsledný výstup může být stále primitivní, což vyžaduje další kroky k úspěšným kybernetickým útokům.
Vyzbrojený dopad generativní umělé inteligence na prostředí hrozeb
Výskyt FraudGPT, WormGPT a dalších škodlivých nástrojů generativní umělé inteligence nesporně je varovným signálem pro komunitu kybernetické bezpečnosti. Existuje potenciál pro sofistikovanější phishingové kampaně a nárůst objemu útoků generativní AI. Kyberzločinci by mohli tyto nástroje využít ke zmenšení vstupních bariér do kybernetické kriminality a nalákat tak osoby s omezenou technickou zdatností.
Tváří v tvář těmto nově vznikajícím hrozbám je však nutné nepropadat panice. FraudGPT a WormGPT jsou sice zajímavé, ale nepředstavují převratné změny v oblasti kyberkriminality – tedy alespoň zatím. Jejich omezení, nedostatečná sofistikovanost a skutečnost, že v těchto nástrojích nejsou zařazeny nejpokročilejší modely umělé inteligence, je zdaleka nečiní odolnými vůči pokročilejším nástrojům poháněným umělou inteligencí, jako je IRONSCALES, který dokáže autonomně odhalovat spear-phishingové útoky generované umělou inteligencí. Stojí za zmínku, že navzdory neověřené účinnosti FraudGPT a WormGPT již sociální inženýrství a přesně cílený spear phishing prokázaly svou účinnost. Nicméně, tyto škodlivé nástroje umělé inteligence poskytují kyberzločincům větší dostupnost a snadnost při vytváření takových phishingových kampaní.
Vzhledem k tomu, že se tyto nástroje dále vyvíjejí a získávají na popularitě, musí se organizace připravit na vlnu vysoce cílených a personalizovaných útoků na své zaměstnance.
Není třeba panikařit, avšak připravte se na zítřek
Nástup generativních podvodů s umělou inteligencí, které ztělesňují nástroje jako FraudGPT a WormGPT, skutečně vyvolává obavy v oblasti kybernetické bezpečnosti. Nicméně není zcela neočekávaný a poskytovatelé bezpečnostních řešení na této výzvě pilně pracují. Ačkoli tyto nástroje představují nové a hrozivé překážky, v žádném případě nejsou nepřekonatelné. Zločinecké podsvětí je stále v počátečních fázích osvojování těchto nástrojů, zatímco dodavatelé bezpečnostních řešení jsou ve hře již mnohem déle. Již existují robustní bezpečnostní řešení poháněná umělou inteligencí, jako je například IRONSCALES, která účinně čelí e-mailovým hrozbám generovaným umělou inteligencí.
Aby si organizace udržely náskok před vyvíjejícím se prostředím hrozeb, měly by zvážit investice do pokročilých řešení zabezpečení e-mailů, která nabízejí:
- Pokročilou ochranu proti hrozbám v reálném čase se specializovanými funkcemi pro obranu proti útokům sociálního inženýrství, jako je Business Email Compromise (BEC), vydávání se za osobu a podvody s fakturami.
- Automatizované simulační testování spear-phishingu, které zaměstnancům umožní osobní školení.
Kromě toho je nezbytné být informován o vývoji v oblasti generativní umělé inteligence a o taktikách, které používají škodliví aktéři pomocí těchto technologií. Připravenost a ostražitost jsou klíčem ke zmírnění potenciálních rizik vyplývajících z využití generativní umělé inteligence v kyberkriminalitě.
Zdroj: The Hacker News
Foto: Bing
Malware Anatsa pro Android se dočkal přes 150 000 stažení přes Google Play
Bankovní trojský kůň Anatsa se zaměřuje na uživatele v Evropě a infikuje zařízení se systémem Android prostřednictvím malwarových dropperů umístěných na Google Play.
Jaký je rozdíl mezi zabezpečení aplikace a zabezpečením API?
S nástupem digitální transformace a rostoucí závislostí podniků na digitálních službách je zabezpečení aplikací a rozhraní API (Application Programming Interfaces) důležitější než kdy dříve. S ohledem na to jsou zabezpečení aplikací a API dvě zásadní součásti komplexní bezpečnostní strategie. Využitím těchto postupů se organizace mohou chránit před škodlivými útoky a bezpečnostními hrozbami a především zajistit, aby jejich data zůstala v bezpečí.
„AI přítelkyně” jsou noční můrou pro soukromí
Romantičtí chatboti shromažďují obrovské množství dat, poskytují nejasné informace o tom, jak je používají, používají slabou ochranu heslem a nejsou transparentní, tvrdí nový výzkum společnosti Mozilla.
4 způsoby, jak hackeři pomocí sociálního inženýrství obcházejí MFA
Pokud jde o zabezpečení přístupu, jedno doporučení vyniká nad ostatními: vícefaktorové ověřování (MFA). Vzhledem k tomu, že samotná hesla jsou pro hackery jednoduchou prací, poskytuje MFA zásadní vrstvu ochrany proti narušení. Je však důležité si uvědomit, že MFA není bezchybné. Lze ho obejít, a často se tak i děje.
Jak být anonymnější online
Na internetu jste neustále monitorováni. Hlavním viníkem je často reklamní průmysl a technologické společnosti, které jsou na reklamě silně závislé, aby vydělaly peníze ( např. Google a Meta). Na webu vás mohou sledovat neviditelné trackery a cookies vložené do webových stránek a aplikací. Přečtěte si návod, jak se stát více anonymním na internetu.
Nejhorší hacky roku 2023
Minulý rok byl plný ničivých kybernetických útoků po celém světě, od ransomwarových útoků na kasina až po státem sponzorované narušení kritické infrastruktury.
0 Comments