Vis enkel innførsel

dc.contributor.advisorCatak, Ferhat Özgur
dc.contributor.authorAnthonsen, Steffen Larsen
dc.contributor.authorMyklebust, Benjamin Andre Scheiene
dc.date.accessioned2023-07-06T15:51:26Z
dc.date.available2023-07-06T15:51:26Z
dc.date.issued2023
dc.identifierno.uis:inspera:130505068:70132977
dc.identifier.urihttps://hdl.handle.net/11250/3076657
dc.description.abstractI vår studie sikter vi på å teste dyktigheten til nettverksangrep deteksjonssystemer i Internet of Things enheter og deres egenskap til å motstå belastningsangrep på prosessorer gjennom et åpenkildet evolusjonær utviklingsprogram kalt NSGA-II. Dette er en nyoppdaget <<hackingmetode>> som i dag generelt blir kalt DDoS AI angrep. Vi studerer muligheten for at det ikke krever komplisert utstyr for at slike angrep skal kunne bli utført, og om offentlig tilgjengelige programvarer og algoritmer kan ha like stor effekt som de komplekse algoritmene som har blitt utviklet for de få studiene innen dette emnet. Motivasjonen bak denne utforskningen er den økende veksten i dyplæringsteknologi samt mangel i cybersikkerhetstjenester. Ved et DDoS AI angrep gis et datainput til en maskinlæringsmodell (ML) med hensikt til å få modellen til å sløse bort så mye prosesseringskraft som mulig. Disse angrepene er malisiøse forsøk på å villede og forvirre maskinlæringsmodeller. En angriper kan f.eks. endre et bilde på en måte som gjør at et datasynssystem ikke greier å gjette hva det er meningen bildet skal representere, og dermed tvinger datasynsystemet til å sløse så mye prosesseringskraft som mulig for å prøve å gjette seg fram til riktig svar. Ut i fra våre resultater observerer vi at angrepsmetodens effektivitet varierer bemerkelig på hva type datasett og modell NSGA algoritmen blir utsatt for. Både vår testmodell og vår hovedmodell ville eventuelt nå en grense hvor den ikke sløste bort flere nevroner eller prosesseringskraft uansett hvor mye NSGA fortsatte å manipulere og finjustere inndataen. Derimot hadde NSGA en bemerkelig effekt på prosesseringskraften til modellene. På den enkle testmodellen kunne prosesseringskraften øke med 43\% gjennom datamanipulering, mens i vår komplekse datamodell fløt prosseseringsøkningen rundt 57\% etter datamanipulering. Ut i fra våre resultater kom vi fram til at angrepsmetoden har en bemerkelig effekt på modellenes ytelse, og at det bør implementeres metode for å begrense hvor mange noder som kan bli aktivert etter hvor bra systemapparatet modellen kjører på er. Motstridelsesøving bør også bli tatt inn til konsiderasjon, hvor modellene øver på manipulert data for å kunne oppdage dem og ikke sløse bort prosesseringskraft på dem. Videre utforskning kreves for å forstå fullskalaen av hvor stor innflytelse disse angrepsmetodene kan ha.
dc.description.abstractIn our study, we aim to test the ability of network attack detection systems in Internet of Things (IoT) devices to withstand load attacks on processors using an open-source evolutionary development program called NSGA-II, through a newly discovered hacking method generally referred to as DDoS AI attacks. We are studying the possibility that such attacks may not require complex equipment and that publicly available software and algorithms may have as much effect as the complex algorithms developed in the few studies on this subject. The motivation behind this exploration is the increasing growth in deep learning technology and the lack of cybersecurity services. In a DDoS AI attack, data inputs are given to a machine learning model with the intention of causing the model to waste as much processing power as possible. These attacks are malicious attempts to deceive and confuse machine learning models. For example, an attacker may modify an image in a way that makes an image recognition system unable to guess what the image is supposed to represent, thus forcing the image recognition system to waste as much processing power as possible in trying to guess the correct answer. Based on our results, we observe that the effectiveness of the attack method varies significantly depending on the type of dataset and model that the NSGA algorithm is exposed to. Both our test model and our main model would eventually reach a limit where they would not waste any more neurons or processing power, no matter how much NSGA continued to manipulate and fine-tune the input data. However, NSGA had a notable effect on the processing power of the models. In the simple test model, processing power could increase by 43% through data manipulation, while in our complex data model, the processing power increase was around 57% after data manipulation. Based on our results, we concluded that the attack method has a notable effect on the performance of the models, and that a method should be implemented to limit the number of nodes that can be activated depending on how well the system hardware is running. Adversarial training should also be considered, where models practice on manipulated data to detect them and not waste processing power on them. Further research is needed to understand the full scale of the influence of these attack methods.
dc.languagenob
dc.publisheruis
dc.titleDDoS angrep generering for å utmatte GPU/CPU ressurser til IoT baserte AI applikasjoner
dc.typeBachelor thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel