“Tento nástroj se prezentuje jako blackhatová alternativa k modelům GPT, navržená speciálně pro škodlivé aktivity.” uvedl bezpečnostní výzkumník Daniel Kelley. Dodává: “Kyberzločinci mohou takovou technologii využít k automatickému vytváření vysoce přesvědčivých falešných e-mailů, které jsou personalizované pro příjemce, a zvyšují tak šance na úspěch útoku.”
Autor softwaru jej označil za “největšího nepřítele známého ChatGPT“, který “umožňuje provádět nejrůznější nezákonné věci”. Používá prý open-source model jazyka GPT-J vyvinutý společností EleutherAI.
V rukou zlomyslného jedince by nástroje jako WormGPT mohly být mocnou zbraní, a to zejména proto, že OpenAI, ChatGPT a Google Bard stále častěji podnikají kroky v boji proti zneužívání velkých jazykových modelů (LLM) k tvorbě přesvědčivých phishingových e-mailů a generování škodlivého kódu.
“Filtry umělé inteligence Bard v oblasti kybernetické bezpečnosti jsou ve srovnání s filtry ChatGPT podstatně méně účinné.” uvedla společnost Check Point ve své zprávě z tohoto týdne. “V důsledku toho je mnohem snazší vytvářet škodlivý obsah s využitím možností Bardu.”
Začátkem letošního února izraelská firma zabývající se kybernetickou bezpečností odhalila, jak kyberzločinci obcházejí omezení ChatGPT tím, že využívají její API, nemluvě o obchodu s ukradenými prémiovými účty a prodeji brute-force softwaru k nabourání se do účtů ChatGPT pomocí obrovských seznamů e-mailových adres a hesel.
Skutečnost, že WormGPT funguje bez jakýchkoli etických hranic, akcentuje hrozbu, kterou představuje generativní umělá inteligence, umožňující i začínajícím kyberzločincům provádět útoky rychle a ve velkém měřítku, aniž by k tomu měli technické prostředky.
Situaci ještě zhoršují aktéři, kteří propagují jailbreak pro ChatGPT a vytvářejí specializované výzvy a vstupy, jejichž cílem je manipulovat s nástrojem tak, aby generoval výstup, který může zahrnovat prozrazení citlivých informací, vytváření nevhodného obsahu a spouštění škodlivého kódu.
“Generativní umělá inteligence může vytvářet e-maily s bezchybnou gramatikou, díky čemuž vypadají legitimně a snižuje se pravděpodobnost, že budou označeny jako podezřelé.” uvedl Kelley.
“Použití generativní umělé inteligence zpřístupňuje provádění sofistikovaných útoků BEC. Tuto technologii mohou používat i útočníci s omezenými dovednostmi, což z ní činí dostupný nástroj pro širší spektrum kyberzločinců.”
Odhalení přichází v době, kdy výzkumníci ze společnosti Mithril Security “chirurgicky” upravili existující open-source model umělé inteligence známý jako GPT-J-6B tak, aby šířil dezinformace, a nahráli jej do veřejného úložiště, jako je Hugging Face, aby jej pak mohli integrovat do dalších aplikací, což vedlo k tzv. otravě dodavatelského řetězce LLM.
Úspěch této techniky, nazvané PoisonGPT, stojí na předpokladu, že lobotomizovaný model je nahrán pod jménem, které se vydává za známou společnost, v tomto případě za verzi EleutherAI, ale s překlepy.
S umělou inteligencí se nám otevírá široké spektrum různých možností. Jakkoli tato technologie může být hojně používána k prospěšným a šlechetným účelům, stejně tak nyní vznikají četné způsoby, jak této technologie zneužívat, a to takovými metodami, které teprve poznáváme, a proti nimž tak zatím nejsme dostatečně obrněni.
0 Comments