WormGPT: Nový nástroj využívající umělé inteligence umožňuje kyberzločincům provádět sofistikované kybernetické útoky

by | Čvc 27, 2023 | Bezpečná domácnost, Bezpečná firma, Nejnovější | 0 comments

Vzhledem k tomu, že generativní umělá inteligence (AI) je v dnešní době v módě, asi nikoho nepřekvapí, že tuto technologii využívají ve svůj prospěch záškodníci, kteří tím urychlují kybernetickou kriminalitu. Podle zjištění serveru SlashNext byl na undergroundových fórech inzerován nový nástroj generativní umělé inteligence pro kybernetickou kriminalitu s názvem WormGPT, který útočníkům umožňuje provádět sofistikované phishingové útoky a útoky na obchodní e-maily (BEC).

“Tento nástroj se prezentuje jako blackhatová alternativa k modelům GPT, navržená speciálně pro škodlivé aktivity.” uvedl bezpečnostní výzkumník Daniel Kelley. Dodává: “Kyberzločinci mohou takovou technologii využít k automatickému vytváření vysoce přesvědčivých falešných e-mailů, které jsou personalizované pro příjemce, a zvyšují tak šance na úspěch útoku.”

Autor softwaru jej označil za “největšího nepřítele známého ChatGPT“, který “umožňuje provádět nejrůznější nezákonné věci”. Používá prý open-source model jazyka GPT-J vyvinutý společností EleutherAI.

V rukou zlomyslného jedince by nástroje jako WormGPT mohly být mocnou zbraní, a to zejména proto, že OpenAI, ChatGPT a Google Bard stále častěji podnikají kroky v boji proti zneužívání velkých jazykových modelů (LLM) k tvorbě přesvědčivých phishingových e-mailů a generování škodlivého kódu.

“Filtry umělé inteligence Bard v oblasti kybernetické bezpečnosti jsou ve srovnání s filtry ChatGPT podstatně méně účinné.” uvedla společnost Check Point ve své zprávě z tohoto týdne. “V důsledku toho je mnohem snazší vytvářet škodlivý obsah s využitím možností Bardu.”

Začátkem letošního února izraelská firma zabývající se kybernetickou bezpečností odhalila, jak kyberzločinci obcházejí omezení ChatGPT tím, že využívají její API, nemluvě o obchodu s ukradenými prémiovými účty a prodeji brute-force softwaru k nabourání se do účtů ChatGPT pomocí obrovských seznamů e-mailových adres a hesel.

Skutečnost, že WormGPT funguje bez jakýchkoli etických hranic, akcentuje hrozbu, kterou představuje generativní umělá inteligence, umožňující i začínajícím kyberzločincům provádět útoky rychle a ve velkém měřítku, aniž by k tomu měli technické prostředky.

Situaci ještě zhoršují aktéři, kteří propagují jailbreak pro ChatGPT a vytvářejí specializované výzvy a vstupy, jejichž cílem je manipulovat s nástrojem tak, aby generoval výstup, který může zahrnovat prozrazení citlivých informací, vytváření nevhodného obsahu a spouštění škodlivého kódu.

“Generativní umělá inteligence může vytvářet e-maily s bezchybnou gramatikou, díky čemuž vypadají legitimně a snižuje se pravděpodobnost, že budou označeny jako podezřelé.” uvedl Kelley.

“Použití generativní umělé inteligence zpřístupňuje provádění sofistikovaných útoků BEC. Tuto technologii mohou používat i útočníci s omezenými dovednostmi, což z ní činí dostupný nástroj pro širší spektrum kyberzločinců.”

Odhalení přichází v době, kdy výzkumníci ze společnosti Mithril Security “chirurgicky” upravili existující open-source model umělé inteligence známý jako GPT-J-6B tak, aby šířil dezinformace, a nahráli jej do veřejného úložiště, jako je Hugging Face, aby jej pak mohli integrovat do dalších aplikací, což vedlo k tzv. otravě dodavatelského řetězce LLM.

Úspěch této techniky, nazvané PoisonGPT, stojí na předpokladu, že lobotomizovaný model je nahrán pod jménem, které se vydává za známou společnost, v tomto případě za verzi EleutherAI, ale s překlepy.

S umělou inteligencí se nám otevírá široké spektrum různých možností. Jakkoli tato technologie může být hojně používána k prospěšným a šlechetným účelům, stejně tak nyní vznikají četné způsoby, jak této technologie zneužívat, a to takovými metodami, které teprve poznáváme, a proti nimž tak zatím nejsme dostatečně obrněni.

Štěpán Drábek, redakce Cyberblog
Zdroj: volně přeloženo z Hacker News
Foto: Unsplash
0 Comments
Submit a Comment
„AI přítelkyně” jsou noční můrou pro soukromí

„AI přítelkyně” jsou noční můrou pro soukromí

Romantičtí chatboti shromažďují obrovské množství dat, poskytují nejasné informace o tom, jak je používají, používají slabou ochranu heslem a nejsou transparentní, tvrdí nový výzkum společnosti Mozilla.

4 způsoby, jak hackeři pomocí sociálního inženýrství obcházejí MFA

4 způsoby, jak hackeři pomocí sociálního inženýrství obcházejí MFA

Pokud jde o zabezpečení přístupu, jedno doporučení vyniká nad ostatními: vícefaktorové ověřování (MFA). Vzhledem k tomu, že samotná hesla jsou pro hackery jednoduchou prací, poskytuje MFA zásadní vrstvu ochrany proti narušení. Je však důležité si uvědomit, že MFA není bezchybné. Lze ho obejít, a často se tak i děje.

Jak být anonymnější online

Jak být anonymnější online

Na internetu jste neustále monitorováni. Hlavním viníkem je často reklamní průmysl a technologické společnosti, které jsou na reklamě silně závislé, aby vydělaly peníze ( např. Google a Meta). Na webu vás mohou sledovat neviditelné trackery a cookies vložené do webových stránek a aplikací. Přečtěte si návod, jak se stát více anonymním na internetu.

Nejhorší hacky roku 2023

Nejhorší hacky roku 2023

Minulý rok byl plný ničivých kybernetických útoků po celém světě, od ransomwarových útoků na kasina až po státem sponzorované narušení kritické infrastruktury.

WormGPT: Nový nástroj využívající umělé inteligence umožňuje kyberzločincům provádět sofistikované kybernetické útoky