Hersenprogrammering is immuun voor tegenstanders: naar een nauwkeurige en robuuste beeldclassificatie met behulp van symbolisch leren (2024)

Gerardo Ibarra-VazquezGustavo Olagueolague@cicese.mxMariana Chan-LawCesar PuenteCarlos Soubervielle-MontalvoAutonome University of San Luis Potosí, Faculteit der Engineering.Dr. Manuel Nava 8, Col. University Zone Poniente, 78290, San Luis Potosí, S.L.P., MexicoEvisión Laboratory, Cicise Research Center.Ensenada-Tijuana 3918, Playitas Zone, 22860, Ensenada, B.C.Mexico

Abstract

In de afgelopen jaren maakt de veiligheidsproblemen over de kwetsbaarheid van diepe convolutionele neurale netwerken (DCNN) voor tegenstanders (AA) in de vorm van kleine wijzigingen in het inputafbeelding dat bijna onzichtbaar is voor de menselijke visie, hun voorspellingen onbetrouwbaar.Daarom is het noodzakelijk om robuustheid te geven aan tegenstanders naast een nauwkeurige score bij het ontwikkelen van een nieuwe classificator.In dit werk voeren we een vergelijkende studie uit van de effecten van AA op het complexe probleem van de categorisatie van kunstmedia, die een geavanceerde analyse van functies omvat om een ​​fijne verzameling kunstwerken te classificeren.We hebben een heersende zak met visuele woordenbenadering getest van computer vision, vier state-of-the-art DCNN-modellen (Alexnet, VGG, ResNet, ResNet101) en het Brain Programming (BP) -algoritme.In deze studie analyseren we de prestaties van de algoritmen met behulp van nauwkeurigheid.Bovendien gebruiken we de nauwkeurigheidsverhouding tussen tegenstanders en schone afbeeldingen om de robuustheid te meten.Bovendien stellen we een statistische analyse van het vertrouwen van elke classificator voor om de resultaten te bevestigen.We bevestigen dat de verandering van BP -voorspellingen lager was dan 2% met behulp van tegenstanders die zijn berekend met de snelle gradiënttekenmethode.Ook, gezien de meervoudige pixelaanval, verkreeg BP vier van de zeven klassen zonder wijzigingen en de rest met een maximale fout van 4% in de voorspellingen.Ten slotte krijgt BP ook vier categorieën met behulp van tegenstanderpatches zonder wijzigingen en voor de resterende drie klassen met een variatie van 1%.Bovendien toonde de statistische analyse aan dat het vertrouwen van de voorspellingen van BP niet significant verschillend was voor elk paar schone en verstoorde beelden in elk experiment.Deze resultaten bewijzen de robuustheid van BP tegen tegenstanders in vergelijking met DCNN en handgemaakte functies methoden, waarvan de prestaties op de kunstmedia -classificatie werden aangetast met de voorgestelde verstoringen.We ratificeren ook de concurrerende score van BP tegen de state-of-the-art classificaties voor het probleem van de kunstmedia.

Sleutelwoorden:

Hersenprogrammering, tegenstanders, beeldclassificatie, kunstmedia -categorisatie

logboek:Zwerm en evolutionaire berekening

1Invoering

Beeldclassificatie is een actief onderzoeksgebied in kunstmatige intelligentie, waarvan het primaire doel is om contextuele informatie of visuele inhoud van een afbeelding te analyseren en toe te wijzen aan de klasse of categorie waartoe het behoort[[1].Er zijn aanzienlijke inspanningen geleverd op gebieden zoals Computer Vision (CV), Machine Learning (ML), Evolutionaire Computation (EC) en Swarm Intelligence (SI) om dit probleem aan te pakken[[2,,3,,4].Twee overheersende methoden zijn een van de meest populaire en succesvolle benaderingen voor het oplossen van beeldclassificatieproblemen: 1) zak met visuele woorden (BOV) van CV en 2) diepe convolutionele neurale netwerken (DCNN) ook bekend als Deep Learning (DL), een onderverdeling, een onderverdeling, een onderverdeling, een onderverdeling, een onderverdeling, een onderverdeling, een onderverdeling, een onderverdeling, een onderverdeling, een onderverdeling, een onderverdeling, een onderverdeling, een onderverdeling, een onderverdeling, een onderverdeling, een onderverdelingvan ML[[5,,6].Desalniettemin hebben EC en SI meestal bijgedragen op twee manieren: 1) het optimaliseren van functieselectie en 2) het optimaliseren van DCNN -architecturen.

Op deze manier is genetische programmering (GP) een van de belangrijkste tools van EC geweest om de selectie van functies te optimaliseren en automatisch de beste kenmerken te extraheren om beeldclassificatietaken te benaderen.Bijvoorbeeld, in 2018, auteurs van[[7]Stel een huisarts methode voor om gelijktijdig globale en lokale functie -extractie te bereiken voor beeldclassificatie met behulp van de datasets van Jaffe (1998), Yale (1997), Flower (2007) en Texture (2006).Zoals we zouden kunnen waarderen, zijn alle datasets sinds tegenwoordig verouderd;Niemand wordt gebruikt om algoritmen te testen.Bovendien wordt hun aanpak vergeleken met traditionele handgineerbare functies van CV-zoals SIFT (schaalinvariante functietransformatie), een beeldverwerkingstechniek die het lokale functieparadigma volgt, en het gedraagt ​​zich niet goed voor problemen zoals beeldcategorisatieomdat verschillende afbeeldingen met meerdere attributen een objectcategorie vertegenwoordigen.De oplossing vereist een consensus van verschillende kenmerken in de vorm van een reeks functies.Daarom ontbreekt dit onderzoekswerk niet meer recente databases en een vergelijking met de huidige classificatie -algoritmen.In 2019, het artikel[[8]stelt een huisartsbenadering voor om automatisch discriminerende rijke functies te genereren voor beeldclassificatie met behulp van de MIT Urban and Nature Scene Datasets (2003).Deze beelddatabases zijn ook verouderd;Daarom wordt de vergelijking gemaakt met traditionele CV -classificatiemethoden zoals histogram van georiënteerde gradiënten (HOG) en Support Vector Machine (SVM), vergelijkbaar met het vorige werk.

In 2019, het onderzoekswerk[[9]stelde een methode voor voor het gebruik van overdrachtsleren in huisartsen om kennis te extraheren en over te dragen om complexe textuurbeelden te classificeren.De voorgestelde methodologie gebruikt de volgende textuurdatasets Kylberg (2011), Brodatz (1999) en Outex (2002), en alle afbeeldingen worden aangepast aan115×115115115115 \ keer 115Pixels om hun experimenten uit te voeren om de rekenkosten te voorkomen en het probleem te vereenvoudigen.In 2020, het artikel[[10]stelt een op GP gebaseerde functie-leerbenadering voor om automatisch vijf methoden te selecteren en te combineren: hist (histogramfuncties), DIF (domein-onafhankelijke functies), SIFT, HOG en LBP (lokale binaire patronen).De techniek genereert een samengestelde oplossing die functies op hoog niveau extraheert om afbeeldingen uit klassieke problemen met datasets met lage resolutie te classificeren-over100×100100100100 \ keer 100pixels tot200×200200200200 \ keer 200pixels.Auteurs vergeleken hun aanpak met andere op GP gebaseerde methoden en DL-methoden zoals Lenet-5 (een CNN-model met een input van grijswaardenafbeeldingen van32×32323232 \ maal 32Pixels, speelgoed-methode in vergelijking met de state-of-the-art) en twee handcraft CNNS-modellen van vijf- en acht-lagen zonder de informatie van de netwerkparameters te verstrekken.Daarom is het niet eenvoudig om de prestaties te beoordelen.

Naast het optimaliseren van functieselectie, hebben EC en SI strategieën ontwikkeld om te zoeken naar betekenisvolle DCNN -architecturen voor beeldclassificatie[[4].Niettemin, recente benaderingen, die zijn samengevat in[[11], onderzoek hybridisatie van zwerm- en evolutionaire berekeningsalgoritmen door de optimalisatie van hyperparameters tijdens de training te aggregeren.Om een ​​voorbeeld te geven, in 2019, auteurs van[[12]stelde een nieuwe methode voor met de naam EVOCNN, die genetische algoritmen gebruikt voor het evolueren van DCNN -architecturen en verbindingswaarden om problemen met beeldclassificatie aan te pakken.Hun experimenten waren gebaseerd op negen datasets die grijswaarden gebruiken.28×28282828 \ keer 28Pixels: MNIST, MNIST-RD, MNIST-RB, MNIST-BI, MNIST-RD + BI, Rechthoeken, rechthoeken-I, convex en mnist-mode.In 2019 echter, auteurs van[[13]stelde een nieuw algoritme voor op basis van deeltjeszwermoptimalisatie (PSO) met de naam PSOCNN, in staat om automatisch DCNN -architecturen te zoeken naar beeldclassificatie met snelle convergentie in vergelijking met anderen evolutionaire benaderingen zoals EVOCNN, onder anderen.Hun experiment gebruikte dezelfde negen hierboven genoemde datasets.

Ondanks de inspanning en interesse van de EC- en SI -gemeenschappen om het probleem van beeldclassificatie aan te pakken, hebben ze nog steeds te maken met verouderde problemen met behulp van klassieke datasets en maken ze vergelijkingen tegen verouderde DCNN -modellen.EC en SI zijn tekort geschoten om op gelijke voet te staan ​​met DCNN-modellen met kleine werken die niet hoger zijn dan hand-craft DCNN-architecturen.

Desalniettemin is een diepe genetische programmeermethode genaamd hersenprogrammering, geïnspireerd door kennis van neurowetenschappen die symbolische representaties gebruikt en regels bevat van expertsystemen met een hiërarchische structuur geïnspireerd door de menselijke visuele cortex, ontwikkeld door het evovision -onderzoeksteam.In 2016 begon Evovision een kunstmatige visuele cortex (AVC) te evolueren voor beeldclassificatie en objectdetectie.Hernández et al.gebruikte natuurlijke afbeeldingen van middelgrote (VGA) met behulp van Graz-01 (2003) en Graz-02 (2004) datasets, die de basis vormen voor de Visual Object Challenge (VOC-uitdaging)-beide nog steeds relevant in CV-literatuur-[[14].De resultaten werden vergeleken met verschillende functie -extractiemethoden Basismomenten (2006), hiërarchische max - genetische algoritme - Hmax -Ga (2012), verbeterde biologisch geïnspireerde model -EBIM (2011), SIFT (2006), segmentatie van segmentatie van gelijkenis - sm (2006 (2006), en momentinvarianten (2006) het meest van CV en één inclusief EC.In 2017, Hernández et al.[[15]Een CUDA -versie van BP geïmplementeerd om de verwerkingstijd van het oorspronkelijke systeem te versnellen.Het experiment analyseerde de prestaties met behulp van verschillende beeldgroottes, die begonnen met256×256256256256 \ maal 256pixels, verdubbelen de maten tot tot4096×4096409640964096 \ maal 4096Pixels, die de mogelijkheid aantonen van realtime functionaliteit en de toepassing op high-definition afbeeldingen.Bovendien werd de methode vergeleken in de tijdprestaties met een CUDA -implementatie van HMAX- en CUDA -versie van een CNN met uitstekende resultaten.

In 2019, het artikel[[16]stelt een willekeurige zoekopdracht voor om de beste parameters voor de AVC in beeldclassificatie te vinden.Het experiment vond geweldige individuen om GRAZ-01, GRAZ-02 en Caltech-101 (2004) datasets te classificeren.Graz -gegevenssets hebben beeldgroottes van640×480640480640 \ keer 480Pixels en Caltech-101 heeft afbeeldingen van300×200300200300 \ keer 200pixels.Merk op dat Graz -afbeeldingen een belangrijke uitdaging vormen vanwege het korte object optreden in het hele beeld, en een uitdaging worden om de wijziging van beelden voor verwerking te wijzigen.CALTECH-101 daarentegen presenteert een echt gegevens over beeldherkenning.In 2020 werd BP voorgesteld als een techniek om het complexe probleem van kunstmedia -categorisatie (AMC) te benaderen[[17].Het experiment bestaat uit het classificeren van kunstdatasets met hoge resolutie zoals Wikiart (2016) en Kaggle Art Images (2018).Bovendien werden BP -resultaten vergeleken met een gerenommeerd DCNN -model genaamd Alexnet, dat een competitief resultaat behaalde.Ook is BP geëvalueerd op real-world problemen van objecttracking met behulp van standaard datasets en algoritmen-fragtrack en Miltrack-terwijl ze ook uitstekende resultaten behaalden in reële omstandigheden in vergelijking met de methode van regio's met convolutionele neurale netwerken (R-CNN)[[18,,19].

Ondanks de vooruitgang die is geboekt om betere beeldclassificaties op te bouwen, is een onderzoeksmogelijkheid die niet is overwogen in EC en SI de robuustheid van de classificator.Tegenwoordig bestaat er een grote bezorgdheid over de prestaties van DCNN, dat een nieuw onderzoeksgebied heeft geopend dat verantwoordelijk is voor het omgaan met tegenstanders (AA) die opzettelijk kleine verstoringen in het invoerafbeelding creëren om het model te misleiden om verkeerd te voorspellen om verkeerd te voorspellen[[20,,21,,22,,23,,24,,25].Sommige van deze verstoringen zijn onmerkbaar voor de menselijke visie en kunnen de voorspelling van de DCNN volledig veranderen om zijn prestaties te laten vallen.Ze worden gegenereerd door verschillende vormen, waaronder het aanbrengen van kleine aanpassingen aan de inputpixels, met behulp van ruimtelijke transformaties, onder andere.Naast de analyse van DCNN -kwetsbaarheden zijn er enorme inspanningen geleverd om defensiemechanismen te ontwikkelen om AA te verminderen.Toch zijn de verstoringen complexer en zeer efficiënter geworden in het voor de gek houden van DCNN.Daarom willen we in dit artikel de classificatiemodellen tussen prestaties en robuustheid tegenover verstoringen contrasteren om de betrouwbaarheid van voorspellingen te garanderen en tegelijkertijd niet alleen op de nauwkeurigheid te concentreren.

1.1Probleemstelling

In deze sectie beschrijven we het serieuze probleem in de DCNN -structuur tot AA.Ten eerste, gegeven een invoerafbeelding𝐱𝐱\ Mathbf {x}in een invoer subruimte𝐗𝐗\ Mathbf {x}zoals dat𝐱𝐗𝐱𝐗\ Mathbf {x} \ in \ Mathbf {x}en het bijbehorende labely𝑦y, DCNN -model vestigt een relatie binnen de gegevens met behulp van de volgende vergelijking:

y=F((𝐱))=𝐰𝐱,,𝑦𝑓𝐱superscript𝐰𝐱y = f (\ mathbf {x}) = \ mathbf {w}^{\ intercal} \ mathbf {x} \; \; \; \;,(1)

waar functieF(())𝑓F()is het DCNN -model, waarvan de bijbehorende gewichtsparameters zijn𝐰𝐰\ Geïnstalleerd {en}.Een onjuist gedrag is echter opmerkelijk wanneer het invoerafbeelding een kleine verandering in zijn pixels lijdt𝐱R=𝐱+Ronderscript𝐱𝜌𝐱𝜌\ Mathbf {x _ _ \ Mathbf {\ Math}} = \ Mathbf {x} +zoals dat:

F((𝐱))F((𝐱R))S.T.𝐱-𝐱RP<<AFormulae-sequentie𝑓𝐱𝑓onderscript𝐱𝜌𝑠𝑡onderscriptnorm𝐱onderscript𝐱𝜌𝑝𝛼\ begin {split} f (\ mathbf {x}) \ neq f (\ mathbf {x} _ {\ mathbf {\ rho}}) & \; \; \; s.t. \\ || \ mathbf {x}-\ mathbf {x} _ {\ mathbf {\ rho}} || _ {p} <\ alpha & \ end {split}(2)

waarPN,,P1,,AR,,A0Formulae-sequentie𝑝𝑁Formulae-sequentie𝑝1Formulae-sequentie𝛼𝑅𝛼0p \ in n, p \ geq 1, \ alpha \ in r, \ alpha \ geq 0.Het kan dus worden gedefinieerd als een tegenstanders voorbeeld (AE) als een opzettelijke gewijzigde invoer𝐱Ronderscript𝐱𝜌\ Mathbf {x} _ {\ Mathbf {\ rho}}dat is anders geclassificeerd dan𝐱𝐱\ Mathbf {x}door het DCNN -model, met een beperkt niveau van verandering in de pixels van𝐱-𝐱RP<<Aonderscriptnorm𝐱onderscript𝐱𝜌𝑝𝛼|| \ Mathbf {x}-\ Mathbf {x} _ {\ mathbf {\ rho}} || _ {p} <\ alpha, zodat het onmerkbaar kan zijn voor een menselijk oog.

De eenvoudigste uitleg over hoe AE's werken om een ​​DCNN aan te vallen, is dat de meeste digitale afbeeldingen 8 -bit per kanaal per pixel gebruiken.Dus elke stap van 1/255 beperkt de gegevensrepresentatie;De tussendoor wordt niet gebruikt.Daarom, als elk element van een verstoringR𝜌\ rhois kleiner dan de gegevensresolutie, het is coherent voor het lineaire model om een ​​onderscheid te voorspellen𝐱𝐱\ Mathbf {x}dan voor een tegenstander𝐱R= =𝐱+Ronderscript𝐱𝜌𝐱𝜌\ Mathbf {x _ _ \ Mathbf {\ Math}} = \ Mathbf {x} +.We nemen dat voor zover alsR<<Aonderscriptnorm𝜌𝛼|| \ Mathbf {\ rho} || _ {\ infty} <\ alpha, waarA𝛼\ alphais te klein om te worden weggegooid, de classificaties moeten dezelfde klasse voorspellen𝐱𝐱\ Mathbf {x}En𝐱Ronderscript𝐱𝜌\ Mathbf {x} _ {\ Mathbf {\ rho}}.

Desalniettemin, na het toepassen van de gewichtsmatrix𝐰𝐑M×N𝐰superscript𝐑𝑀𝑁\ Mathbf {W} \ in \ Mathbf {R}^{M \ Times N}Aan de AE ​​verkrijgen we het puntproduct gedefinieerd door𝐰𝐱R= =𝐰𝐱+𝐰Rsuperscript𝐰onderscript𝐱𝜌superscript𝐰𝐱superscript𝐰𝜌\ mathbf {w}^{\ intercal} \ mathbf {x} _ {\ mathbf {\ rho}} = \ mathbf {w}^{\ intercal} \ mathbf {x}+\ mathbf {w}^{\ \ \ \ \ \ \ \ \ \ \ \ \ \ {\ intercal } \ Mathbf {\ rho}.Daarom zal de AE ​​de activering laten groeien door𝐰Rsuperscript𝐰𝜌\ Mathbf {W}^{\ intercal} \ Mathbf {\ rho}.Merk op dat de dimensionaliteit van het probleem niet groeitRonderscriptnorm𝜌|| \ Mathbf {\ rho} || _ {\ infty};Aldus de activeringswijziging veroorzaakt door verstoringR𝜌\ Mathbf {\ rho}kan lineair groeien metN𝑛N.Als gevolg hiervan kan de verstoring veel onmerkbare wijzigingen in de input aanbrengen om grote uitvoerwijzigingen te verkrijgen.

DCNN-gedrag is enorm lineair om immuun te zijn voor AE's, en niet-lineaire modellen zoals sigmoïde netwerken zijn opgezet om meestal niet te versterkend te zijn, waardoor ze meer als een lineair model worden.Daarom moet elke verstoring als toegankelijk of uitdagend om te berekenen ook de DCNN beïnvloeden.Daarom, wanneer een model wordt beïnvloed door een AE, beïnvloedt dit beeld daarom vaak een ander model, of de twee modellen verschillende architecturen hebben of zijn getraind met andere databases.Ze hoeven alleen voor dezelfde taak te worden ingesteld om het resultaat te wijzigen[[26].

Op deze manier vindt de AE ​​-generatie een input𝐱Ronderscript𝐱𝜌\ Mathbf {x} _ {\ Mathbf {\ rho}}In de invoer subruimte𝐗superscript𝐗\ Mathbf {x}^{\ prime}zoals dat𝐱R𝐗onderscript𝐱𝜌superscript𝐗\ Mathbf {x} _ {\ Mathbf {\ rho}} \ in \ Mathbf {x}^{\ prime}EnF((𝐱))F((𝐱R))𝑓𝐱𝑓onderscript𝐱𝜌f (\ Mathbf {x}) \ neq f (\ Mathbf {x} _ {\ Mathbf {\ rho}}).Niettemin duiden we robuustheid aan in termen van functiecontinuïteit.Gezien de functie van een modelF(())𝑓F()in een invoer subruimte𝐗𝐗\ Mathbf {x}zoals dat𝐱𝐗𝐱𝐗\ Mathbf {x} \ in \ Mathbf {x}, als𝐱k𝐱onderscript𝐱𝑘𝐱\ Mathbf {x} _ {k} \ rightarrow \ Mathbf {x}impliceertF((𝐱k))F((𝐱))𝑓onderscript𝐱𝑘𝑓𝐱f (\ Mathbf {x} _ {k}) \ rightarrow f (\ mathbf {x}).Gelijkwaardig,F((𝐱))𝑓𝐱f (\ Mathbf {x}))is robuust bij𝐱𝐱\ Mathbf {x}, voor iedereen𝐲𝐗𝐲𝐗\ Mathbf {y} \ in \ Mathbf {x}, als eenK>0𝜅0\ kappa> 0, er is eenM>0𝜇0\ Mu> 0zoals dat𝐲-𝐱<<Mnorm𝐲𝐱𝜇|| \ Mathbf {y}-\ Mathbf {x} ||impliceert|F((𝐲))-F((𝐱))|<<K𝑓𝐲𝑓𝐱𝜅| F (\ Mathbf {y})-f (\ mathbf {x}) | <\ capa.Vandaar, alsF((𝐱))𝑓𝐱f (\ Mathbf {x}))is robuust voor elk𝐱𝐱\ Mathbf {x}, DanF((𝐱))𝑓𝐱f (\ Mathbf {x}))wordt gezegd dat het robuust is𝐗𝐗\ Mathbf {x}.

Daarom is de procedure om robuustheid te meten door passende statistische tests te gebruiken, afhankelijk van de eigenschappen van de resultaten, standaardprestatiemaatstaven en de verhouding van nauwkeurigheid.Statistische tests stellen ons in staat om te bepalen of de verkregen resultaten aanzienlijk verschillen en de kennis van bepaalde aspecten ten opzichte van de bestaande algoritmemaatregelen verbeteren: effectiviteit, efficiëntie, nauwkeurigheid of betrouwbaarheid bij het gebruik van kunstmatige neurale netwerken, SVM of andere metaheuristieken[[27].

1.2Onderzoeksbijdragen

Dit artikel geeft inzicht in tegenstanders en de motivatie om de robuustheid van beeldclassificatiemodellen te analyseren.Daarom breiden we de eerste resultaten uit die gerapporteerd zijn op het International Symposium on Visual Computing (ISVC'20), waarop we de robuustheid onderzoeken door de complexe beeldclassificatietaak van de AMC[[28].In dit werk testen we een heersende BOV-aanpak van CV, vier state-of-the-art DCNN-modellen (Alexnet, VGG, ResNet, ResNet101) en het BP-algoritme met behulpaanvallen en tegenstanders).We merken de volgende bijdragen op:

  • 1.

    De eerste bijdrage bestaat uit een voorstel van de robuustheid van BP als een veilig mechanisme om AAS voor AMC aan te pakken.Omdat dit probleem moeilijk is, kunnen de resultaten met veel artefacten in alle bestudeerde klassen worden uitgebreid tot andere uitdagende classificatietaken.

  • 2.

    De tweede is een vergelijkende studie van de overheersende beeldclassificatiemethodenprestaties van drie-verschillende onderzoeksgebieden (CV, ML en EC), rekening houdend met AAS.

  • 3.

    De derde is een statistische analyse van de voorgestelde beeldclassificaties vanuit het standpunt van robuustheid tegen AAS.

We organiseren het huidige werk als volgt.Sectie2presenteert relevant onderzoek voor de AMC.Het omvat de complexiteit van het probleem en hoe het is aangepakt, van handgemaakte functies tot DCNN -modellen en GP -methoden.Het presenteert ook de zorgen over AAS en hoe de robuustheidsvoorspellingen niet zijn bestudeerd op de AMC.Sectie3Schetst de structuur van elke classificatiemethode en de AA's die in dit werk worden gebruikt.Sectie4Geeft details over de experimentele opstelling, inclusief de dataset, de constructie ervan, de gebruikte evaluatiemetrieken en de verklaring van de experimentele resultaten.Eindelijk, sectie5presenteert de conclusies van dit werk.

2Gerelateerde werken

Het AMC -probleem in CV is voortgekomen uit de noodzaak om automatische systemen te hebben voor het identificeren van waardevolle kunstwerken om een ​​betrouwbare analyse te hebben van complexe functies die niet subjectief kunnen zijn, omdat mensen geneigd zijn te zijn.Het classificeren van beeldende kunstwerken omvat bijvoorbeeld een verfijnde selectie van functies die elk medium onderscheiden, wat extreem moeilijk is[[29].Meestal analyseert een kunstexpert de stijl, het genre en de media uit illustraties om de kunstenaar te identificeren en vervalsingen te detecteren[[30,,31,,17].Daarom maakt de ontwikkeling van geautomatiseerde systemen die dergelijke taken leveren een nauwkeurige en robuuste analyse een kritisch probleem op het gebied van beveiliging.Op deze manier zijn om een ​​robuuste analyse van kunstmedia te maken, beelden met hoge resolutie verplicht om voldoende informatie te bieden om de zorgvuldigheid te maximaliseren op basis van de kunstwerken.De kunststijl, meestal geassocieerd met de school van de auteur, beschrijft de onderscheidende artefacten van de kunstenaars, visuele elementen, technieken en methoden.De vorm is gerelateerd aan de lokalisatie van functies op verschillende niveaus.De klassieke hiërarchie van genres rangschikt geschiedenisschilderen en portret als hoog, terwijl landschappen en stilleven als laag worden geclassificeerd omdat ze geen personen bevatten.

AMC is aangepakt vanuit 3 perspectieven: 1) handgemaakte extractie van functies, 2) diepe convolutionele neurale netwerken en 3) genetische programmeermethoden.Ten eerste waren handgemaakte ontwikkelde functies de belangrijkste methode om formules te ontwikkelen die functies kunnen extraheren om een ​​beeldrepresentatie te verkrijgen om een ​​afbeelding gemakkelijk te classificeren.

Een van de eerste werken die handgemaakte functies gebruiken was[[32];Hier stelden de auteurs een discrete Cosine Transform (DCT) coëfficiëntenschema voor dat wordt gebruikt voor de identificatie van de functie -extractieschilder door de stijl van de kunstenaar te classificeren.Ze bouwen een aangepaste database van ongeveer 300 grijswaardenafbeeldingen van vijf schilders (Rembrandt, Van-Gogh, Picasso, Magritte en Dali) om te experimenteren.Li en Wang[[33]Voorgesteld met behulp van een tweedimensionaal verborgen Markov-model met meerdere resolutie om penseelstreken te analyseren om betrouwbare informatie te bieden om kunstenaars te onderscheiden van oude Chinese schilderijen.Hun database bestaat uit 276 grijswaardenafbeeldingen van vijf Chinese kunstenaars met een resolutie van3000×200000000000000000003000200000000000000000003000 \ keer 2000Pixels maar geschaald naar 512 op de kortere dimensie, met behoud van de beeldverhouding.Auteurs in[[34]presenteren een vergelijkende studie van verschillende classificatiemethoden op basis van handgemaakte ontwikkelde functies.Ze contrasteerden semantisch niveau-functies met een SVM, Color Sift en tegenstander SIFT met BOV en latente Dirichlet-toewijzing met een generatief BOV-onderwerpmodel voor genre-classificatie van fijne art.In hun onderzoek werd een database met zeven categorieën schilderijen (abstract, barok, renaissance, popart, expressionisme, impressionisme en kubisme) gebruikt uit de dataset van de Artchive Fine-Art met behulp van 70 afbeeldingen uit elke klasse.Onlangs, Rosado[[35]gebruikte een BOV geïmplementeerd met behulp van een dichte-Sift-methode voor functie-extractie en probabilistische latente semantische analyse (PLSA) om een ​​beeldanalyse te maken van 434 gedigitaliseerde afbeeldingen van schilderijen, tekeningen, boeken en gravures door antonische tàpies.Over het algemeen merken we op dat het gebruik van handgemaakte ontwikkelde functies het mogelijk maakt om bemoedigende maar geen perfecte resultaten te verkrijgen.Na verloop van tijd werd de complexiteit van deze kenmerken uitdagender voor het ontwerpen.Naast het ontwerpproces van functies, was de ontwikkeling van het leeralgoritme een volledig onafhankelijk onderzoeksgebied dat nodig was om aan de extractie van de functie te passen.

DCNN is een doorbraak geweest op veel gebieden van beeldverwerking, en recente werken aan AMC hebben benaderingen gepresenteerd op basis van de ultramoderne DCNN-architecturen.Auteurs in[[36]introduceerde het gebruik van diepe convolutionele activeringsfuncties van een DCNN -model dat is getraind voor objectherkenning om de stijl te herkennen.Deze functies bereiken hoogwaardige identificerende stijlen bij het schilderen van afbeeldingen en presteren beter dan de meeste handgemaakte ontwikkelde functies.Bar et al.[[37]stelde een compacte binaire weergave voor die de picodes -descriptoren en de diepe convolutionele activeringskenmerken van een DCNN -model combineert om artistieke stijlen in schilderijen te identificeren die uitzonderlijke resultaten tonen om kunstwerken van Wikiart te classificeren met behulp van 27 klassen.Noord et al.[[38]gebruikte een aanpassing van AlexNet om artworkstijlen van Rijks Museum -afbeeldingen te classificeren.Ze kunnen de regio's visualiseren met een hitte -map van het kunstwerk dat de voorspelling van stijl beïnvloedt.Cetinisch en grgic[[39]Gebruikte de functies die uit VGG zijn geëxtraheerd om Wikiart -databasebeelden te classificeren in zeven genreklassen zoals portret, landschap, stad, stilleven, naakt, bloem en dier.Ze presteren beter dan handgemaakte ontwikkelde functies zoals SIFT, GIST-descriptor, varkens, Hog, Gray Level Co-voorkomen Matrix (GLCM) en HSV-kleurenhistogrammen met hun classificatiemethode.Seguin et al.[[40]Stel voor om te extraheren uit VGG -vergelijkbare componenten die worden gedeeld door verschillende kunstwerken met de naam Visual Link.Deze links proberen een gelijkenis te vinden van de schilderijen van dezelfde makers of dezelfde scholen.Het experiment gebruikte afbeeldingen uit de Web Gallery of Art Database die rapporteerde dat hun methode betere prestaties behaalt dan handgemaakte technische functies zoals SIFT.

Sun et al.[[41]gebruikte Alexnet en VGG om een ​​structuur te construeren met twee paden om object- en textuurfuncties te verkrijgen.De DCNN voert de objectberekening uit en de textuurpad gebruikt de grammatrices van tussenliggende kenmerken.Auteurs die in hun experimenten worden gebruikt Wikipaintings, Flickr -stijl en Ava -stijldatabases.Elgammal et al.[[42]stelde een analyse voor van beroertes in lijntekeningen met behulp van een database van 300 gedigitaliseerde tekeningen met meer dan 80 duizend slagen.Ze maken gebruik van handgemaakte ontwikkelde functies, diep geleerde functies en de combinatie van beide om te discrimineren tussen kunstenaars op een slagniveau met hoge nauwkeurigheid.Ook dient hun werk om vervalsingen te ontdekken die door kunstenaars zijn gemaakt.Cetinic et al.[[43]voerde een uitgebreid CNN-verfijningsexperiment uit met behulp van vijf caffe-modellen (Caffenet, Hybrid-CNN-netwerk, Memnet Network, Sentiment Network en Flickr Network) voor vijf verschillende kunstgerelateerde classificatietaken (kunstenaar, genre, stijl, tijdsperiode en associatie en associatie en associatiemet een specifieke nationale artistieke context) over drie grote datasets met een fijne kunst (Wikiart, Web Gallery of Art en TICC -dataset voor printmaking).In[[44], auteurs gebruikten Pre-Train DCNN-modellen (Alexnet, VGG, Googlenet, ResNet, Densenet) om basisartistieke media uit kunstwerken te herkennen.Ze verzamelden ongeveer 1000 illustraties per klasse (oliedakborstel, pastel, potlood en waterverf) via verschillende zoekmachines en websites om ze te classificeren.Ze verkregen vergelijkbare resultaten met die van getrainde mensen.

Ten slotte heeft een huisartsachtige methode genaamd hersenprogrammering concurrerende resultaten verkregen in vergelijking met een DCNN-model voor de AMC-taak[[17].Deze techniek is bedoeld om het gedrag van de hersenen na te bootsen op basis van leerprocessen van neurowetenschappen met nieuw symbolisch leren.In de experimenten worden twee gerenommeerde databases van kunstwerken met hoge resolutie gebruikt (Art Database van Kaggle en Wikiart) om vijf kunstmediaklassen (tekeningen, gravure, schilderen, iconografie en beeldhouwkunst) te classificeren.De voorgestelde techniek behaalt vergelijkbare resultaten met Alexnet over een binair classificatieprobleem.

Hoewel DCNN voorbeeldige resultaten heeft verkregen bij het oplossen van een breed scala aan computer vision -taken, veranderen kleine perturbaties met de naam tegenstanders die op het invoerafbeelding zijn gedaan, de beslissing van het leermodel om zijn voorspelling volledig te wijzigen.Deze perturbaties worden gegenereerd in verschillende vormen die kleine wijzigingen omvatten aan de inputpixels en het gebruik van ruimtelijke transformaties, onder andere.Het primaire doel van deze aanvallen is om de voorspelling van de DL -modellen opzettelijk voor de gek te houden en onopgemerkt te blijven voor de menselijke perceptie.Szeedy et al.[[45]waren de eerste die een ongewone zwakte ontdekte waar kleine verstoringen bijna onzichtbaar zijn voor de menselijke visie op de inputpixels, een CNN voor de gek kunnen houden.Deze aanvallen rapporteerden ook een hoog vertrouwen in de verkeerde voorspelling van het model, en erger nog, meerdere netwerken werden getroffen met dezelfde verstoorde afbeelding.Later ontdekten ze dat de robuustheid van CNN tegen AA kon worden verbeterd met behulp van deze afbeeldingen in de trainingsfase.Recente studies hebben echter het gebrek aan robuustheid in goed opgeleide DCNN's benadrukt[[46,,47].Goodfellow et al.[[26]Een methode ontworpen met de naam Fast Gradient Sign -methode (FGSM), die efficiënte computerstoringen voor een gegeven afbeelding mogelijk maakt.Een andere dreiging bestaat uit een extreme en eenvoudige aanval voorgesteld door Su et al.[[48], die bestaat uit het wijzigen van één pixel in de afbeelding, kan een CNN voor de gek houden.Een nadeel is echter dat het alleen werkt voor pictogramafbeeldingen.Ze hebben met succes drie verschillende netwerkmodellen aangevallen onder deze strategie met veel vertrouwen.Moosavi-dezfooli et al.[[49]ontdekte enkelvoudige verstoringen die elk beeld verkeerd kunnen classificeren;Ze noemden het universele verstoringen.Op deze manier, Brown et al.[[50]stelde een methode voor om universele, robuuste, gerichte tegenstanderspatches te maken.Deze patches zijn zo compact dat ze kunnen worden afgedrukt en gebruikt in real-world scènes om een ​​CNN voor de gek te houden.

Ondanks aanzienlijke inspanningen om defensiemethoden te maken tegen AAS, hebben de onderzoekswerken zich gericht op het wijzigen van het trainingsproces of het wijzigen van de invoerafbeelding tijdens het testen[[26,,51,,52], ook bij het veranderen van de structuur van de netwerken[[53,,54,,55]of via externe modellen om ongeziene voorbeelden te classificeren[[56,,57].Zhang et al.[[58]Besproken de beperking van de tegenstanders, omdat de aanvallen steeds uitdagender zijn geworden met een hoge efficiëntie van de schade.

AMC is een complex probleem om op te lossen.De oplossing omvat een gecompliceerde analyse van functies en vereist nauwkeurige en robuuste beslissingen, meestal wanneer curatoren werken met zeer waardevolle kunstwerken.De prestaties van handgemaakte methoden voor ontwikkelde functies zijn beperkt om te concurreren met DCNN door hun onvermogen om complexe functies te extraheren uit kunstwerken om een ​​betere beeldrepresentatie te bouwen.DCNN heeft het beter gepresteerd dan handgemaakte ontwikkelde functies en heeft de leiding voor de AMC opgezet.Desalniettemin is BP begonnen met het aantonen van zijn competentie tegen DCNN -prestaties op dit gebied.AA's op kunstmedia vormen echter een ernstige dreiging die niet is bestudeerd om de betrouwbaarheid van de classificator te meten. Vermoedelijk is niet aangetoond dat het AA-effect de voorspellingen van verschillende classificatie-architecturen, zoals CV-methoden, beïnvloedmethodologie[[28].Hoewel DCNN defensiemechanismen heeft ontwikkeld om het AA -effect te verminderen, is het moeilijk om te vechten tegen alle nieuwe en complexere AA.Dus, zelfs als DL-architecturen grootschalige sets afbeeldingen hebben geclassificeerd met meerdere klassen met uitstekende resultaten, maken de beveiligingsproblemen van dit paradigma de oplossingen onbetrouwbaar.De brosheid is omdat, met kleine verstoringen die op het beeld worden geproduceerd, DL opzettelijk voor de gek kan worden gehouden.Er zijn bijvoorbeeld kritieke gebieden in musea en galerijen, zoals kunstenaaridentificatie en vervalsing detectie, waarbij het vertrouwen van de voorspelling niet afhankelijk moet zijn van een systeem dat kan worden gemanipuleerd door een onmerkbare verstoring.Dit catastrofale scenario kan ertoe leiden dat vervalsingen op de markt circuleren of verkeerd worden toegeschreven aan een specifieke kunstenaar.Dit artikel presenteert een methode die kan worden gebruikt als een eerste verdedigingsmechanisme door algemene vragen te stellen zoals of het gedigitaliseerde kunstwerk tot een bepaalde klasse behoort voordat ze verdere vragen stelt.

3Methodologie

Deze sectie beschrijft de gegevensmodellering van elke methode die in dit werk wordt gebruikt.Het hoofddoel in gegevensmodellering is om de gegevens samen te vatten door deze aan een model te passen door een relatie in de gegevens op te zetten((y,,𝐱))𝑦𝐱(Y, \ mathbf {x}))gegeven door de dataset door de volgende vergelijking:

y=F((𝐱)),,𝑦𝑓𝐱y = f (\ mathbf {x}) \; \; \;,(3)

waar de functieF(())𝑓F()is het model dat afhankelijk is van instelbare parameters.Daarom beschrijven we SIFT + Fisher -vectoren modellering als de BOV -methode omdat het de laatste computer vision -techniek was die de beeldclassificatietaak won op de ImageNet Grootschalige Visual Recognition Challenge (ILSVRC) 2011 voordat DL -modellen ontstonden.We beschrijven de modellering van diepe neurale netwerken en verklaren de bijdragen aan de state-of-the-art van de vier DCNN-modellen die voor dit werk zijn gekozen op basis van de ILSVRC-winnaars.Vervolgens presenteren we de theorie achter BP om functiesymbolisch leren te introduceren voor gegevensmodellering en de workflow van het systeem.Ten slotte beschrijven we de modellering van de drie geselecteerde AA's om de verstoring te construeren om een ​​misclassificatie te induceren zoals in vergelijking (2).

3.1SIFT + Fisher -vectoren

Fisher Vector (FV) is een vectoriale weergave van de gradiënt van de steekproeflog-waarschijnlijkheid met betrekking tot een generatief model van de gegevens[[59].Er zijn veel voordelen aan de FV tegen de BOV.Het werd bewezen door[[59]Dat BOV een bepaald geval is van de FV waar wordt beperkt de gradiëntberekening tot de mengselgewichtparameters van het Gaussiaanse mengmodel (GMM)[[60].Het generatieve model (GMM) kan worden opgevat als een probabilistische visuele woordenschat.Desalniettemin bevat FV extra gradiënten die de nauwkeurigheid verbeteren.Het heeft ook minder vocabulaires nodig met lagere rekenkosten dan BOV, en het is gemakkelijk om goede prestaties te bereiken met eenvoudige lineaire classificaties.Merk op dat BOV meestal vrij schaars is, terwijl de FV bijna dicht is, waardoor FV onpraktisch is voor grootschalige toepassingen vanwege opslagproblemen.Desalniettemin wordt een grootschalige zoekopdracht van de naaste buurman gemaakt om dit probleem te verminderen met behulp van een populaire computer vision-methode met de naam Product Kwantisatie[[61].In de praktijk wordt het SIFT-descriptoren gebruikt op een dicht multi-schaal rooster om de FV-beeldrepresentatie te berekenen[[59].

Om de FV-beeldrepresentatie te construeren, wordt het gedefinieerd een set d-dimensionale descriptoren die uit een afbeelding zijn geëxtraheerdX={XT,,T=1,,,,T}X = \ {x_ {t}, t = 1, \ dots, t \}, een set SIFT -descriptoren.FV is een som van genormaliseerde gradiëntstatistiekenDlotX=T=1TLlotlotaanroepenulot((XT))superscriptonderscript𝛿𝜆𝑋superscriptonderscript𝑡1𝑇onderscript𝐿𝜆onderscript𝜆onderscript𝑢𝜆onderscript𝑥𝑡\ delta x {\ lambda}^{x} = \ sum _ {t = 1}^{t} l _ {\ lambda} \ nabl a _ {\ lambda} \ log u _ {\ lambda} (x_ {t})met de veronderstelling dat alle descriptoren onafhankelijk zijn.WaarLlotlotaanroepenulot((XT))onderscript𝐿𝜆onderscript𝜆onderscript𝑢𝜆onderscript𝑥𝑡L _ {\ lambda} \ nabla _ {\ lambda} \ log u _ {\ lambda} (x_ {t})zijn de genormaliseerde gradiëntstatistieken berekend voor elke descriptor.Daarom kan worden duidelijk dat deze bewerking een inbedding van de lokale descriptors isXTϕFK((XT))=Llotlotaanroepenulot((XT))onderscript𝑥𝑡onderscriptitalic -id𝐹𝐾onderscript𝑥𝑡onderscript𝐿𝜆onderscript𝜆onderscript𝑢𝜆onderscript𝑥𝑡x_ {t} \ rightarrow \ phi_ {fk} (x_ {t}) = l _ {\ lambda} \ nabla _ {\ lambda} \ log u _ {\ lambda} (x_ {t})In een hoger-dimensionale ruimte die een lineaire classificator helpt om de gegevens eenvoudiger te modelleren, zoals in vergelijking (3).

Het voordeel van deze algoritmen is dat er geen gelabelde gegevens nodig zijn om dewoordenboek.Daarom kan het werken op beperkte gelabelde gegevenssituaties.Het leerproces van het woordenboek kan ook de kwaliteit van de functies verbeteren door er aanvullende informatie over te geven[[62,,63].Ze zijn echter niet in staat om functieshiërarchieën te bouwen, en het proces wordt niet slechts één methode gestapeld op de bovenkant van de andere, zelfs er zijn pogingen geweest om het diep te maken[[64,,65,,66].

3.2Diepe convolutionele neurale netwerken

Anders begint Ann het idee om diepe architecturen te ontwerpen voor neurale netwerkmodellen die voldoende functies langs deze structuur kunnen extraheren om de ANN in staat te stellen afbeeldingen te classificeren.Diepe neurale netwerken, waar DCNN er deel van uitmaakt, modelleert de gegevens met behulp van vergelijking (3) in dienstFDNN(())onderscript𝑓𝐷𝑁𝑁f_ {dnn} ()als een bepaalde vorm van een geneste functie, en elk noemde een laag.

y=FDNN((X))= =F3((𝐟2((𝐟1((𝐱)))))),,𝑦onderscript𝑓𝐷𝑁𝑁𝑥onderscript𝑓3onderscript𝐟2onderscript𝐟1𝐱y = f_ {dnn} (x) = f_ {3} (\ mathbf {f} _ {2} (\ mathbf {f} _ {1} (\ mathbf {x})))) \; \; \; \; \; \; \; \; \; \; \; \;(4)

op zo'n manier dat𝐟1onderscript𝐟1\ Mathbf {f} _ {1}En𝐟2onderscript𝐟2\ Mathbf {f} _ {2}zijn vectorfuncties van de volgende vorm:

𝐟l((𝐳))=𝐠l((𝐖l𝐳+𝐛l)),,onderscript𝐟l𝐳onderscript𝐠londerscript𝐖l𝐳onderscript𝐛l\ mathbf {f} _ {\ textit {l}} (\ mathbf {z}) = \ mathbf {g} _ {\ textit {l}} (\ mathbf {w} _ {\ texti {z}+\ Mathbf {b} _ {\ textit {l}});(5)

metlde index van de laag aangeven.𝐠londerscript𝐠l\ Mathbf {g} _ {\ textit {l}}is de activeringsfunctie die meestal een niet -lineaire functie is, en de modelparameters bestaan ​​uit𝐖londerscript𝐖l\ Mathbf {w} _ {\ textit {l}}de gewichten matrix en𝐛londerscript𝐛l\ Mathbf {b} _ {\ textit {l}}de bias vector.Daarom wordt het minimalisatieprobleem bepaald door de verliesfunctieJ((e,,𝐱,,y))𝐽𝜃𝐱𝑦J (\ theta, \ mathbf {x}, y)waar het doel is om de beste modelparameters voor alle lagen te vindenEE\ Thetadat past bij de gegevens𝐱𝐱\ Mathbf {x}naar het labely𝑦y.

LECUN et al.[[67]geïntroduceerd het moderne raamwerk van convolutionele neurale netwerken (CNN's).De eerste keer dat CNN de aandacht begint te trekken was echter met de ontwikkeling van de Alexnet[[68], een DCNN -model voor de ILSVRC 2012, waar het met de helft van het foutenpercentage van de beeldclassificatietaak zou kunnen verminderen.Alexnet Layer Architecture bestaat uit 5 convolutionele, drie max-pooling, twee normalisaties, drie volledig verbonden lagen (de laatste met 1000 SoftMax-uitgang), 60 miljoen parameters en 500.000 neuronen.Aanvullend,[[68]geïntroduceerd het gebruik van niet-lineariteit van relu (gerectificeerde lineaire eenheid) als activeringsfunctie met de voordelen van veel snellere training dan gebruikentanhofsigmoidfuncties.Om overfitting te voorkomen, introduceerden ze ook de uitvalmethode en gegevensvergroting.

Een ander DL-model dat bijdragen aan de state-of-the-art opleverde, was het VGG-netwerk van de Visual Geometry Group van de Universiteit van Oxford[[69].VGG Network verhoogde het diepe van eerdere netwerken door VGG-16 en VGG-19 te maken.De eerste gebruikt 13 convolutionele lagen en drie volledig verbonden lagen;De tweede had drie extra convolutionele lagen in dienst.Ook verminderden ze de grootte van de filters tot het kleinste formaat om het idee van omhoog/omlaag, links/rechts en midden te vangen dat een 3x3 -filter is.VGG onderscheidde zich voor zijn state-of-the-art prestaties over herkennings- en lokalisatietaken op ILSVRC 2014 en andere datasets voor beeldherkenning.

Resnet[[70](Diep resteren voor beeldherkenning) heeft ook bijgedragen aan het opnieuw definiëren van de laag als resterende leerfunctie op de CNN -architectuur.Dit helpt om het knelpuntprobleem van de trainingsfase op CNN's te verminderen.ResNet toonde zijn vermogen om zijn architectuur te trainen met een diepte van maximaal 152 lagen en een lagere complexiteit dan Googlenet.ResNet won ook de ILSVRC 2015 over de classificatietaak die voor het eerst een foutenpercentage van 3,57%bereikte.Ze stelden vijf configuraties van het netwerk voor: 18-laags, 34-laags, 50-laags, 101-laags en 152-laags netwerken.

3.3Hersenprogrammering

Voordat we het algoritme van BP uitleggen, maken we een korte inleiding tot huisartsenalgoritmen.Huisarts is een evolutionaire berekeningstechniek geïnspireerd door biologische evolutieprincipes[[71].Het wordt beschouwd als een afgeleide van genetische algoritmen die de populaties van individuen evolueren in de vorm van een boom- of computerprogramma (formules of wiskundige uitdrukkingen).Elk individueel computerprogramma wordt gegenereerd, afhankelijk van de terminal en functiesets die door de gebruiker zijn vastgesteld.Ze worden geëvalueerd in termen van hoe goed het presteert in een bepaald probleem.Vervolgens worden individuen met behulp van het Darwiniaanse principe van reproductie en overleving van de sterkste en de genetische operators van crossover en mutatie geëvolueerd om een ​​betere fit -oplossing voor het probleem te vinden.

BP is een evolutionair paradigma voor het oplossen van CV -problemen die zijn gerapporteerd in[[14,,16,,19].Deze methodologie extraheert kenmerken uit afbeeldingen door een hiërarchische structuur geïnspireerd op het functioneren van de hersenen.BP stelt een GP-achtige methode voor, met behulp van een multi-tree representatie voor individuen.Het belangrijkste doel is om een ​​reeks evolutionaire visuele operators te verkrijgen (EVOS𝐸𝑉𝑂𝑠Eva), ook wel visuele operators genoemd (VOS𝑉𝑂𝑠Vos), die zijn ingebed in een hiërarchische structuur die de kunstmatige visuele cortex wordt genoemd.De AVC is voornamelijk gebaseerd op twee modellen: een psychologisch model genaamd functie -integratietheorie[[72]en een neurofysiologisch model genaamd het corticale model met twee route[[73].Aldus probeert de AVC het natuurlijke proces dat zich langs de visuele cortex voordoet volgens het neurologische ventrale dorsale model van de hersenen.Dit model met twee streams stelt dat het proces van het verwerven van visuele informatie in de hersenen twee hoofdpaden volgt.

De dorsale stroom staat bekend als de "waar" of "hoe" stroom.Dit pad is waar de richtlijnen van acties en het herkennen van de locatie van objecten in de ruimte betrokken is en waar visuele aandacht optreedt.De eerste theorie stelt dat visuele aandacht bij mensen wordt uitgevoerd in twee fasen.De eerste wordt de pre -freaterende fase genoemd, waar visuele informatie parallel wordt verwerkt over verschillende functiedimensies die de scène vormen: vorm, kleur, oriëntatie, ruimtelijke frequentie, helderheid en bewegingsrichting.De tweede fase, focale aandacht genoemd, integreert de geëxtraheerde functies uit de vorige fase om een ​​regio van de scène te benadrukken.BP is gebaseerd op de meest populaire theorie van functie -integratie voor de dorsale stream van[[72], en de principes van het eerste rekenmodel voor visuele aandacht, waarbij het beeld in verschillende dimensies wordt ontleed om een ​​set concurrentiekaarten te verkrijgen, die vervolgens worden geïntegreerd in een enkele kaart genaamd de saliciëntiekaart[[74].

De ventrale stroom staat bekend als de "wat" -stroom.Deze route wordt meestal geassocieerd met objectherkenning en vormrepresentatietaken.Voorgestelde ventrale streammodellen zoals neocognitron -systeem[[75], convolutionele neurale netwerken[[67]en HMAX -model[[76](Het maximale principe wordt gebruikt in BP), begin met het ontbinden van de afbeelding in een set afwisselende "S" en "C" -lagen.De "S" of eenvoudige lagen worden gedefinieerd door een reeks lokale filters die zijn toegepast om functies van hogere orde te vinden, en de "C" complexe lagen vergroten de functies-invariantie door eenheden van dezelfde soort te combineren.BP vervangt echter de gegevensgestuurde modellen door een functie-gedreven paradigma.In het functieproces wordt een reeks visuele operatoren gefuseerd door synthese om de eigenschappen van het beeld te beschrijven.Door middel van een reeks experimenten zullen we aantonen dat de ontdekte oplossingen niet rechtstreeks op de gegevens zijn, maar specifieke kenmerken;Daarom maken de oplossingen betrouwbaar met betrekking tot AAS.

Daarom kan BP in twee stappen worden samengevat: ten eerste het evolutieproces waarvan het primaire doel is om functies te ontdekken om complexe modellen te optimaliseren door de bewerkingen erin aan te passen.Ten tweede gebruikt de AVC, een hiërarchische structuur geïnspireerd door de menselijke visuele cortex, het concept van functiesamenstelling om functies uit afbeeldingen te extraheren.Het model kan worden aangepast, afhankelijk van de taak, of het nu probeert de focus van de aandacht voor saliëntieproblemen of de volledige AVC voor categorisatie/classificatieproblemen op te lossen.BP verschilt van de gegevensgestuurde modellen met behulp van een functiegestuurde aanpak om de relevante informatie te extraheren en te combineren die een specifieke visuele taak oplost.Daarom vereist het algemene functie-gedreven proces de invoer in een geschikte weergave;Daarom definiëren we een beeldI𝐼Ials de grafiek van een functie.

Definitie 1. Afbeelding als grafiek van een functie.LatenF𝑓Fwees een functieF:U2:𝑓𝑈superscript2f: u \ subset \ mathbb {r}^{2} \ rightarrow \ mathbb {r}.De grafiek of afbeeldingI𝐼IvanF𝑓Fis de subset van3superscript3\ Mathbb {r}^{3}die uit de punten bestaan((X,,y,,F((X,,y))))𝑥𝑦𝑓𝑥𝑦(x, y, f (x, y)), waarin het geordende paar((X,,y))𝑥𝑦(X, y)is een punt inU𝑈UEnF((X,,y))𝑓𝑥𝑦F (x, y)is op dat moment de waarde.Symbolisch, de afbeeldingI={((X,,y,,F((X,,y))))3|((X,,y))U}𝐼voorwaardelijke set𝑥𝑦𝑓𝑥𝑦superscript3𝑥𝑦𝑈I = \ {(x, y, f (x, y)) \ in \ mathbb {r}^{3} | (x, y) \ in u \}.

Deze definitie is gebaseerd op het feit dat de afbeeldingen het gevolg zijn van de indruk van variaties in lichtintensiteit langs het tweedimensionale vlak.Daarom zijn functies geoptimaliseerd om de functionaliteit van gespecialiseerde gebieden van de hersenen te imiteren via een reeks operators.

3.3.1Gegevensmodellering met BP

BP stelt voor om het probleem van beeldclassificatie op te lossen vanuit het standpunt van gegevensmodellering via GP.Om het leerproces van BP te begrijpen, beginnen we daarom het minimalisatieprobleem te definiëren, waarvoor een oplossing moet worden gevonden𝐏MiNSonderscript𝐏𝑚𝑖𝑛𝑆\ Mathbf {P} _ {min} \ in Szoals dat:

𝐏MiNS:F((𝐏MiN))F((𝐏)).:voor iedereenonderscript𝐏𝑚𝑖𝑛𝑆𝑓onderscript𝐏𝑚𝑖𝑛𝑓𝐏\ Forall \ Mathbf {P} _ {min} \ in S: f (\ Mathbf {p} _ {min}) \ leq f (\ mathbf {p}) \; \; \; \;.(6)

Daarom willen we, in tegenstelling tot conventionele benaderingen voor het vinden van de best passende parameters, de gegevens passen door functies te ontdekken die een classificatietaak in BP uitvoeren.De strategie neemt verschillende stappen omdat de directe mapping tussen het domein en het codomain onbekend is of niet goed gedefinieerd.Op deze manier vereist de oplossing voor het beeldclassificatieprobleem via BP om de volgende vergelijking te definiëren:

y=MiN((F((𝐱,,𝐅,,𝐓,,𝐚)))),,𝑦𝑚𝑖𝑛𝑓𝐱𝐅𝐓𝐚y = min (f (\ mathbf {x}, \ mathbf {f}, \ mathbf {t}, \ mathbf {a})) \;(7)

waar((y,,𝐱))𝑦𝐱(Y, \ mathbf {x}))zijn respectievelijk het label en de afbeelding, gegeven door de dataset;𝐅𝐅\ Mathbf {f}vertegenwoordigt de set functies,𝐓𝐓\ mathbf {t}definieert de terminalet, en𝐚𝐚\ Mathbf {a}zijn de parameters die het evolutieproces beheersen.Daarom hebben we twee dingen nodig om het probleem op te lossen: 1) een methode voor functie -extractie en 2) een geschikt criterium𝐐𝐐\ Mathbf {q}voor de minimalisatie.

Daarom is BP het algoritme dat verantwoordelijk is voor afstemming((𝐅,,𝐓,,𝐚))𝐅𝐓𝐚(\ Mathbf {f}, \ Mathbf {t}, \ Mathbf {a})Op zoek naar optimale functie -extractie uit de invoerbeelden met behulp van de visuele operators ingebed in de kunstmatige visuele cortex (AVC).Het criterium voor het minimalisatie𝐐𝐐\ Mathbf {q}In termen van een classificatietaak helpt het de beste classificator te ontdekken.In dit specifieke geval gebruiken we een SVM om een ​​mapping te lerenF((𝐱))𝑓𝐱f (\ Mathbf {x}))Dat associeert descriptoren𝐱𝐢onderscript𝐱𝐢\ Mathbf {x_ {i}}naar labelsyionderscript𝑦𝑖y_ {i}.Hier definiëren we het BP -algoritme in termen van een binaire classificatietaak, waarvan het belangrijkste doel is om een ​​beslissingsgrens te vinden die het beste de klasse -elementen scheidt.

3.3.2Evolueren van een kunstmatige visuele cortex (AVC)

Elk individu bestaat uit syntactische bomen die deVOS𝑉𝑂𝑠VosDat construeert de AVC -structuur om functies uit kleurafbeeldingen te extraheren.Deze procedure krijgt een descriptorvector die codeert voor opvallende kenmerken van het beeld.Vervolgens passen we een SVM toe om de classificatienauwkeurigheid te berekenen voor een gegeven trainingsbeelddatabase om de individuele fitness te verkrijgen.Daarom gebruikt BP een evolutionaire lus gepresenteerd in algoritme1Om de hele populatie te ontwikkelen die wordt weergegeven door een reeks AVC's, waarin de hele workflow wordt geïllustreerd in figuur1.

Hersenprogrammering is immuun voor tegenstanders: naar een nauwkeurige en robuuste beeldclassificatie met behulp van symbolisch leren (1)

Invoer :Trainingsafbeeldingen, algoritmeparameters (zie tabel5))

Uitvoer:De bijgewerkte bevolking AVC's

1Genereer een willekeurige initiële populatieP0onderscript𝑃0P_ {0};

2i=0𝑖0i = 0;

3terwijlHet beëindigingscriterium is niet voldaanDoen

4Evalueer elke individuele fitness (AVC) inPionderscript𝑃𝑖Pi};

5Selectie met behulp van lexicografische parsimoniedruk;

6Nakomelingen genereren door crossover en mutatie;

7i=i+1𝑖𝑖1i = i+1;

8

opbrengstDe bijgewerkte bevolkingPFiNAlonderscript𝑃𝑓𝑖𝑛𝑎𝑙P_ {final}

3.3.3Structuurweergave en genetische operaties

In BP is een individu een computerprogramma dat wordt vertegenwoordigd door syntactische bomen ingebed in een hiërarchische structuur.Individuen binnen de populatie bevatten een variabel aantal syntactische bomen, variërend van 4 tot 12, één voor elke evolutionaire visuele operator (VOO𝑉onderscript𝑂𝑂Va_ {o},,VOC𝑉onderscript𝑂𝐶Vo_ {c},,VOS𝑉onderscript𝑂𝑆Vo_ {s},,VOI𝑉onderscript𝑂𝐼Vo_ {i}) met betrekking tot oriëntatie, kleur, vorm en intensiteit;en ten minste één boom om de resulterende visuele kaarten samen te voegen en uiteindelijk de mentale kaarten (mm) te genereren.Alle functies binnen elkVO𝑉𝑂Voworden gedefinieerd volgens deskundige kennis om kenmerken te benadrukken die verband houden met de respectieve functiedimensie en bijgewerkt via genetische bewerkingen.

  • 1.

    Visuele kaarten

Elke invoerafbeelding wordt getransformeerd om de set te bouwenICOlORonderscript𝐼𝑐𝑜𝑙𝑜𝑟I_ {color}= ={IR\ {I_ {r},,IGonderscript𝐼𝑔I_ {g},,IBonderscript𝐼𝑏I_ {b},,IConderscript𝐼𝑐I_ {c},,IMonderscript𝐼𝑚Ik ben},,Iyonderscript𝐼𝑦I_ {y},,Ikonderscript𝐼𝑘I_ {k},,IHonderscript𝐼I_ {h},,ISonderscript𝐼𝑠Is},,Iv}I_ {v} \}, waarbij elk element overeenkomt met de kleurcomponenten van de RGB (rood, groen, blauw), CMYK (cyaan, magenta, geel en zwart) en HSV (tint, verzadiging en waarde) kleurruimtes.Elementen opICOlORonderscript𝐼𝑐𝑜𝑙𝑜𝑟I_ {color}zijn de ingangen tot vierVOS𝑉𝑂𝑠Vosgedefinieerd door elk individu.ElkVO𝑉𝑂Vois een kaartfunctie die op het invoerafbeelding wordt toegepast om specifieke kenmerken te extraheren, samen met informatiestromen van kleur, oriëntatie, vorm en intensiteit;Elk van deze eigenschappen wordt een dimensie genoemd.De output naarVO𝑉𝑂Vois een afbeelding genaamd visuele kaart (VM𝑉𝑀VM) voor elke dimensie.Het is belangrijk op te merken dat elke oplossing in de populatie als een compleet systeem moet worden begrepen en niet alleen als een lijst met drie gebaseerde programma's.Individuen vertegenwoordigen een mogelijke configuratie voor functie -extractie die invoerbeelden beschrijft en is geoptimaliseerd door het evolutieproces.Vervolgens verklaren we het proces vanVOS𝑉𝑂𝑠Vosom functies op elke dimensie te extraheren om een ​​resultaat te verkrijgenVM𝑉𝑀VM.

De eerste boom van het individu bootst de oriëntatie na.Daarom ontwikkelen we deze visuele operator (VOO𝑉onderscript𝑂𝑂Va_ {o}) Via een set speciaal geselecteerde elementen om randen, hoeken en andere oriëntatiegerelateerde functies te markeren met behulp van de set terminals en functies in tabel1.De invoer voor de functies kan een van de terminals zijn, evenals de samenstelling onder hen;GAonderscript𝐺𝜎G _ {\ sigma}zijn Gaussiaanse afvlakkingsfilters metA=1,,2𝜎12\ sigma = 1,2;EnDuonderscript𝐷𝑢D_ {u}vertegenwoordigt de beeldderivaten in de richtinguX,,y,,XX,,yyXy𝑢𝑥𝑦𝑥𝑥𝑦𝑦𝑥𝑦u \ in {x, y, xx, yyxy}.Deze operators emuleren de functionaliteit van het V1 -gebied gepresenteerd in de primaire visuele cortex.

DimensieFunctieBeschrijvingTerminalsBeschrijving
VOO𝑉onderscript𝑂𝑂Va_ {o}A+B𝐴𝐵A+B,,A-B𝐴𝐵A-B,,A×B𝐴𝐵A \ maal b,,A/B𝐴𝐵A/B,,k+A𝑘𝐴K+A,,k-A𝑘𝐴K-A,,k×A𝑘𝐴k \ maal a,,A/k𝐴𝑘A/k,,|A|𝐴| A |,,|A+B|𝐴𝐵| A+B |,,|A-B|𝐴𝐵| A-B |,,lOG((A))𝑙𝑜𝑔𝐴Log (a),,((A))2superscript𝐴2(A)^{2},,A𝐴\ sqrt {a},,ROuND((A))𝑟𝑜𝑢𝑛𝑑𝐴Ronde (a),,A𝐴\ lfloor a \ rfloor,,A𝐴\ lceil a \ rceil,,iNF((A,,B))𝑖𝑛𝑓𝐴𝐵inf (a, b),,SuP((A,,B))𝑠𝑢𝑝𝐴𝐵sup (a, b),,GA=1((A))onderscript𝐺𝜎1𝐴G _ {\ sigma = 1} (a),,GA=2((A))onderscript𝐺𝜎2𝐴G _ {\ sigma = 2} (a),,DX((A))onderscript𝐷𝑥𝐴D_ {x} (a),,Dy((A))onderscript𝐷𝑦𝐴D_ {y} (a),,THR((A))𝑡𝑟𝐴de A)Rekenkundige functies tussen afbeeldingen of constantenk𝑘k, absolute waarden, trendentale functies, vierkante, vierkante wortel, afrondingsfuncties, infimum, supremum, convolutie met een Gaussiaans filter, derivaten en drempel toegepast op afbeeldingenA𝐴Aen/ofB𝐵BIRonderscript𝐼𝑟I_ {r},,IGonderscript𝐼𝑔I_ {g},,IBonderscript𝐼𝑏I_ {b},,IConderscript𝐼𝑐I_ {c},,IMonderscript𝐼𝑚Ik ben},,Iyonderscript𝐼𝑦I_ {y},,Ikonderscript𝐼𝑘I_ {k},,IHonderscript𝐼I_ {h},,ISonderscript𝐼𝑠Is},,Ivonderscript𝐼𝑣I_ {v},,DX((IX))onderscript𝐷𝑥onderscript𝐼𝑥D_ {x} (i_ {x}),,DXX((IX))onderscript𝐷𝑥𝑥onderscript𝐼𝑥D_ {xx} (i_ {x}),,Dy((IX))onderscript𝐷𝑦onderscript𝐼𝑥D_ {y} (i_ {x}),,Dyy((IX))onderscript𝐷𝑦𝑦onderscript𝐼𝑥D '_ {y} (_ {x}),,DXy((IX))onderscript𝐷𝑥𝑦onderscript𝐼𝑥D_ {xy} (i_ {x})Elementen vanICOlORonderscript𝐼𝑐𝑜𝑙𝑜𝑟I_ {color}en zijn derivaten

De tweede operator codeert voor de kleurdimensie die de kleurgevoelige cellen in de visuele cortex emuleert.De visuele operator van kleur (VOC𝑉onderscript𝑂𝐶Vo_ {c}) reproduceert het kleurperceptieproces om prominente regio's met kleureigenschappen in de afbeelding te vinden.Merk op dat sommige functies vanVOC𝑉onderscript𝑂𝐶Vo_ {c}zijn hetzelfde als die inVOO𝑉onderscript𝑂𝑂Va_ {o}Plus de functieCOMPleMeNT(())𝑐𝑜𝑚𝑝𝑙𝑒𝑚𝑒𝑛𝑡aanvulling()Dat biedt een negatief beeld dat een intensiteit of RGB -waarde aanvult (zie tabel2).In het uitgangsbeeld worden dus donkere gebieden lichter en worden lichte gebieden donker.Terminals van de tegenstander voeren een vaste bewerking uit tussen de kleurenbanden die een nieuw beeld bouwt met de maximale waarden daartussen.Bijvoorbeeld,OPR,,G𝑂onderscript𝑝𝑟𝑔Op_{\ r,g}Accentueert het verschil tussen de rode en groene banden.

DimensieFunctieBeschrijvingTerminalsBeschrijving
VOC𝑉onderscript𝑂𝐶Vo_ {c}A+B𝐴𝐵A+B,,A-B𝐴𝐵A-B,,A×B𝐴𝐵A \ maal b,,A/B𝐴𝐵A/B,,k+A𝑘𝐴K+A,,k-A𝑘𝐴K-A,,k×A𝑘𝐴k \ maal a,,A/k𝐴𝑘A/k,,lOG((A))𝑙𝑜𝑔𝐴Log (a),,eXP((A))𝑒𝑥𝑝𝐴exp (a),,((A))2superscript𝐴2(A)^{2},,A𝐴\ sqrt {a},,((A))Csuperscript𝐴𝑐(A)^{c},,ROuND((A))𝑟𝑜𝑢𝑛𝑑𝐴Ronde (a),,A𝐴\ lfloor a \ rfloor,,A𝐴\ lceil a \ rceil,,THR((A))𝑡𝑟𝐴de A)Rekenkundige functies tussen afbeeldingen of constantenk𝑘k, Transcendentale functies, vierkante, vierkante wortel, beeldcomplement, afrondingsfuncties en drempelwaarde toegepast op afbeeldingenA𝐴Aen/ofB𝐵BIRonderscript𝐼𝑟I_ {r},,IGonderscript𝐼𝑔I_ {g},,IBonderscript𝐼𝑏I_ {b},,IConderscript𝐼𝑐I_ {c},,IMonderscript𝐼𝑚Ik ben},,Iyonderscript𝐼𝑦I_ {y},,Ikonderscript𝐼𝑘I_ {k},,IHonderscript𝐼I_ {h},,ISonderscript𝐼𝑠Is},,Ivonderscript𝐼𝑣I_ {v},,OPR-G((I))𝑂onderscript𝑝𝑟𝑔𝐼Op_{r-g}(I),,OPB-y((I))𝑂onderscript𝑝𝑏𝑦𝐼On_ {b-y} (i)Elementen vanICOlORonderscript𝐼𝑐𝑜𝑙𝑜𝑟I_ {color}en kleur tegenstanders: roodgroen en blauwgeel

De derde boom is de visuele operator van vorm.De methode die visuele informatie uit de vorm van het object haalt om te gebruikenVOS𝑉onderscript𝑂𝑆Vo_ {s}van tafel3, die gebruik maken van de morfologische informatie van de artefacten in de afbeelding.BP stelt voor om samengestelde operatoren te creëren door de samenstelling van basismorfologische operatoren zoals dilatatie, erosie, open, sluiten met schijf-, vierkante en diamantstructurele elementen.Inderdaad, meer complexe operators kunnen van deze operators worden gemaakt.Het doel van het extraheren van vorminformatie is om morfologische informatie te benadrukken die kan worden gebruikt voor objectherkenning.

DimensieFunctieBeschrijvingTerminalsBeschrijving
VOS𝑉onderscript𝑂𝑆Vo_ {s}A+B𝐴𝐵A+B,,A-B𝐴𝐵A-B,,A×B𝐴𝐵A \ maal b,,A/B𝐴𝐵A/B,,k+A𝑘𝐴K+A,,k-A𝑘𝐴K-A,,k×A𝑘𝐴k \ maal a,,A/k𝐴𝑘A/k,,ROuND((A))𝑟𝑜𝑢𝑛𝑑𝐴Ronde (a),,A𝐴\ lfloor a \ rfloor,,A𝐴\ lceil a \ rceil,,THR((A))𝑡𝑟𝐴de A),,ASEDdirect-sum𝐴𝑆onderscript𝐸𝑑A \ OPLUS SE_ {D},,ASESdirect-sum𝐴𝑆onderscript𝐸𝑠A \ OPLUS SE_ {S},,ASEDMdirect-sum𝐴𝑆onderscript𝐸𝑑𝑚A \ OPLUS SE_ {DM},,ASEDsymmetrische verschil𝐴𝑆onderscript𝐸𝑑A \ ominus se_ {d},,ASESsymmetrische verschil𝐴𝑆onderscript𝐸𝑠A \ ominus se_ {s},,ASEDMsymmetrische verschil𝐴𝑆onderscript𝐸𝑑𝑚A \ ominus se_ {dm},,ASES𝐴𝑆onderscript𝐸𝑠A \ CircledCirc SE_ {S},,ASESdirecte product𝐴𝑆onderscript𝐸𝑠En \ odot se_ {s},,Sk((A))𝑆𝑘𝐴Nl (a),,PeRiM((A))𝑃𝑒𝑟𝑖𝑚𝐴Groente (a),,ASED𝐴𝑆onderscript𝐸𝑑A \ Circledast SE_ {D},,ASES𝐴𝑆onderscript𝐸𝑠A \ Circledast SE_ {S},,ASEDM𝐴𝑆onderscript𝐸𝑑𝑚A \ Circledast SE_ {dm},,THAT((A))onderscript𝑇𝑎𝑡𝐴Dat een),,BHAT((A))onderscript𝐵𝑎𝑡𝐴B_ {hat} (a)Rekenkundige functies tussen afbeeldingen of constantenk𝑘k, afrondingsfuncties, drempel- en morfologische operators: dilatatie, erosie, open, sluiten met schijf, vierkant en diamanten structureel element;skelet, hit of miss, bottom-hat, top-hatIRonderscript𝐼𝑟I_ {r},,IGonderscript𝐼𝑔I_ {g},,IBonderscript𝐼𝑏I_ {b},,IConderscript𝐼𝑐I_ {c},,IMonderscript𝐼𝑚Ik ben},,Iyonderscript𝐼𝑦I_ {y},,Ikonderscript𝐼𝑘I_ {k},,IHonderscript𝐼I_ {h},,ISonderscript𝐼𝑠Is},,Ivonderscript𝐼𝑣I_ {v}Elementen vanICOlORonderscript𝐼𝑐𝑜𝑙𝑜𝑟I_ {color}

Ten slotte komt de intensiteitsmaat overeen met de hoeveelheid licht waargenomen door een lichtgevoelig apparaat.Bij mensen wordt de intensiteit gemeten door gespecialiseerde ganglioncellen in het netvlies.Vervolgens wordt de volgende formule toegepast om de visuele kaart van intensiteit te berekenen.

VMINT=IR+IG+IB3.𝑉onderscript𝑀𝐼𝑛𝑡onderscript𝐼𝑟onderscript𝐼𝑔onderscript𝐼𝑏3Vm_ {int} = \ frac {i_ {r}+i_ {g}+i_ {b}} {3} \; \; \;.(8)
  • 1.

    Opvallende kaarten

De volgende procedure is het centrum-surround proces;het combineert efficiënt de informatie van deVMS𝑉𝑀𝑠VM'sen is handig voor het detecteren van schaalinvariantie in elk van de dimensies.Dit proces wordt uitgevoerd door een Gaussiaanse afvlakking toe te passen boven het overeenkomstigeVMD𝑉onderscript𝑀𝑑Vm_ {d}Op negen schalenPDA={PDA=0,,PDA=1,,,,PDA=7,,PDA=8}onderscriptsuperscript𝑃𝜎𝑑onderscriptsuperscript𝑃𝜎0𝑑onderscriptsuperscript𝑃𝜎1𝑑onderscriptsuperscript𝑃𝜎7𝑑onderscriptsuperscript𝑃𝜎8𝑑P^{\ sigma} _ {d} = \ {p^{\ sigma = 0} _ {d}, p^{\ sigma = 1} _ {d}, ..., p^{\ sigma = 7} _ {d}, p^{\ sigma = 8} _ {d} \};Deze verwerking vermindert de grootte van de visuele kaart met de helft op elk niveau dat een piramide vormt.Vervolgens worden de zes niveaus van de piramide geëxtraheerd en gecombineerd.

QDJ=PDA=J+92+1-PDA=J+22+1,,onderscriptsuperscript𝑄𝑗𝑑superscriptonderscript𝑃𝑑𝜎𝑗921superscriptonderscript𝑃𝑑𝜎𝑗221Q^{j} _ {d} = p_ {d}^{\ sigma = \ lfloor \ frac {j+9} {2} \ rfloor+1} -p_ {d}^{\ sigma = \ lfloor \ frac{j+2} {2} \ rfloor+1} \; \; \;,(9)

waarJ=1,,2,,,,6𝑗126j = {1,2, ..., 6}.Sinds de niveausPDAonderscriptsuperscript𝑃𝜎𝑑P^{\ sigma} _ {d}hebben verschillende maten, elk niveau is genormaliseerd en geschaald naar de dimensie van de visuele kaart met behulp van polynoominterpolatie.Deze techniek simuleert het centrale proces van het biologische systeem.Na het extraheren van kenmerken, ontvangt de hersenen stimuli van het Vision Center en vergelijkt het met de omliggende informatie van het receptieve veld.Het doel is om de afbeeldingen te verwerken zodat de resultaten onafhankelijk zijn van schaalveranderingen.Het hele proces zorgt ervoor dat de beeldgebieden reageren op het aangegeven gebied.Dit proces wordt uitgevoerd voor elke karakteristieke dimensie (VMD𝑉onderscript𝑀𝑑Vm_ {d});De resultaten worden opvallende kaarten genoemd (CM𝐶𝑀CM), alleen gericht op het gezochte object door de meest opvallende functies te benadrukken.Dit vroege stadium van het systeem volgt het psychologische model van visuele aandacht, waarbij de locatie van de objecten in de ruimte wordt betrokken als de kunstmatige dorsale stroomroute.

  • 1.

    Mentale kaarten

Na het verkrijgen van de meest saliëntiefuncties, is de volgende fase langs de AVC om de mentale kaarten te berekenen (MMS𝑀𝑀𝑠Mms) om een ​​descriptorvector te definiëren die wordt gebruikt als input voor een classificator voor categorisatiedoeleinden.Deze procedure is analoog aan de kunstmatige ventrale stroomroute.Vandaar de informatie vanCMS𝐶𝑀𝑠Cmswordt gesynthetiseerd om de set van te bouwenMMS𝑀𝑀𝑠Mms, die ongewenste informatie onderscheidt.Het AVC-model maakt gebruik van een onderdeel om de discriminerende kenmerken van de afbeeldingen te extraheren (zie tabel4);Het gebruikt een functionele aanpak.Dus een set vank𝑘k VOS𝑉𝑂𝑠Voswordt toegepast op deCMS𝐶𝑀𝑠Cmsvoor de constructie van deMMS𝑀𝑀𝑠Mms.DezeVOS𝑉𝑂𝑠Voskomen overeen met het resterende deel van het individu dat niet is gebruikt.In tegenstelling tot de operators die worden gebruikt voor deVMS𝑉𝑀𝑠VM's, de hele set van de operators is hetzelfde voor alle dimensies.Deze operatoren filteren de visuele informatie en extraheren de informatie die het interesse object karakteriseert.Vervolgens met vergelijking (10), waarD𝑑Dis de dimensie, enk𝑘kvertegenwoordigt de kardinaliteit van de set vanVOMMk𝑉onderscript𝑂𝑀onderscript𝑀𝑘Vo_ {mm_ {k}}, we passen deMMS𝑀𝑀𝑠MmsVoor elke dimensie.

MMD=i=1kVOMMi((CMD))𝑀onderscript𝑀𝑑superscriptonderscript𝑖1𝑘𝑉onderscript𝑂𝑀onderscript𝑀𝑖𝐶onderscript𝑀𝑑Mm_ {d} = \ sum_ {i = 1}^{k} vo_ {mm_ {i}} \ links (cm_ {d} \ rechts)(10)

DimensieFunctieBeschrijvingTerminalsBeschrijving
VOMM𝑉onderscript𝑂𝑀𝑀Vo_ {mm}A+B𝐴𝐵A+B,,A-B𝐴𝐵A-B,,A×B𝐴𝐵A \ maal b,,A/B𝐴𝐵A/B,,|A+B|𝐴𝐵| A+B |,,|A-B|𝐴𝐵| A-B |,,lOG((A))𝑙𝑜𝑔𝐴Log (a),,((A))2superscript𝐴2(A)^{2},,A𝐴\ sqrt {a},,GA=1((A))onderscript𝐺𝜎1𝐴G _ {\ sigma = 1} (a),,GA=2((A))onderscript𝐺𝜎2𝐴G _ {\ sigma = 2} (a),,DX((A))onderscript𝐷𝑥𝐴D_ {x} (a),,Dy((A))onderscript𝐷𝑦𝐴D_ {y} (a)Rekenkundige functies tussen afbeeldingen of constantenk𝑘k, absolute waarden, transcendentale functies, vierkante, vierkante wortel, convolutie met een Gaussiaans filter en derivatenCMD𝐶onderscript𝑀𝑑Cm_ {d},,DX((CMD))onderscript𝐷𝑥𝐶onderscript𝑀𝑑D_ {x} (cm_ {d}),,DXX((CMD))onderscript𝐷𝑥𝑥𝐶onderscript𝑀𝑑D_ {xx} (cm_ {d}),,Dy((CMD))onderscript𝐷𝑦𝐶onderscript𝑀𝑑D_ {y} (cm_ {d}),,Dyy((CMD))onderscript𝐷𝑦𝑦𝐶onderscript𝑀𝑑D_ {yy} (cm_ {d}),,DXy((CMD))onderscript𝐷𝑥𝑦𝐶onderscript𝑀𝑑D_ {xy} (cm_ {d})Opvallende kaarten en zijn derivaten

  • 1.

    Genetische operaties

Individuen worden geselecteerd uit de populatie met behulp van een evenredige fitnessmethode die lexicografische parsimoniedruk wordt genoemd om deel te nemen aan de genetische recombinatie van de multi-tree representatie van de individuen.Deze methode bestaat uit het toewijzen van elke oplossing een selectiekans die evenredig is aan hun fitnesswaarde terwijl de voorkeur wordt gegeven aan kleinere bomen wanneer fitness gelijk is.De beste individuen worden behouden om genetische operators toe te passen om de nieuwe nakomelingen te creëren.

Net als genetische algoritmen voert BP de crossover uit tussen twee geselecteerde ouders op het chromosoomniveau met behulp van een "snij-en-splitsing" crossover.Aldus worden alle gegevens buiten het geselecteerde crossover -punt verwisseld tussen zowel ouders A als B. Het resultaat van het toepassen van een crossover op het genniveau wordt uitgevoerd door willekeurig twee substree crossover -punten tussen beide ouders te selecteren.De geselecteerde genen worden verwisseld met de bijbehorende subtree in de andere ouder.De chromosoomniveau -mutatie leidt tot het selecteren van het willekeurige gen van een gegeven ouder om een ​​dergelijke substructuur te vervangen door een nieuw willekeurig gemuteerd gen.De mutatie op genniveau wordt berekend door een subtree -mutatie toe te passen op een probabilistisch geselecteerd gen;De subtree na dat punt wordt verwijderd en vervangen door een nieuwe subtree.Deze genetische operators staan ​​de variatie van het genetische materiaal toe, terwijl ze de genetische innovatie van individuen door alle niveaus bevorderen en de diversiteit van de bevolking behouden.

3.3.4Fitness functie

De volgende fase in het model is de constructie van de beeldbeschrijvingsvector (DV𝐷𝑉Dv).Het systeem samenvoegt de vierMMS𝑀𝑀𝑠Mmsen gebruikt een maximale bewerking om deN𝑛Nhoogste waarden;Deze waarden worden gebruikt om deDV𝐷𝑉Dv.Zodra we de DV's van afbeeldingen in de database hebben gekregen, associeert een classifier het domein dat wordt gegeven door de descriptoren aan het codomain van de labels.In dit werk gebruiken we een SVM die werkt met het discrimineerde hyperplane gedefinieerd door:

F((𝒙))=i=1lAiyiK((𝒙i,,𝒙))+B,,𝑓𝒙superscriptonderscript𝑖1𝑙onderscript𝛼𝑖onderscript𝑦𝑖𝐾onderscript𝒙𝑖𝒙𝑏f \ links (\ bm {x} \ rechts) = \ sum_ {i = 1}^{l} \ alpha_ {i} y_ {i} k \ left (\ bm {x} _ {i}, \ bm {x} \ rechts)+b,(11)

waar de gegeven trainingsgegevens zijn((𝐱i,,yi))onderscript𝐱𝑖onderscript𝑦𝑖(\ Mathbf {x} _ {i}, y_ {i}),,i=1,,,,l𝑖1𝑙i = 1, \ ldots, l,,yi{-1,,1}onderscript𝑦𝑖11y_ {i} \ in \ {-1,1 \},,𝐱i𝐑Ponderscript𝐱𝑖superscript𝐑𝑝\ Mathbf {x} _ {i} \ in \ Mathbf {r}^{p}EnK((𝐱i,,𝐱))𝐾onderscript𝐱𝑖𝐱K (\ Mathbf {x} _ {i}, \ Mathbf {x})is de kernelfunctie.Het teken van de output geeft het klassenlidmaatschap aan van𝐱𝐱\ Mathbf {x}.Het vinden van het beste hyperplane wordt dus uitgevoerd via een optimalisatieproces dat de marge tussen de klasse en niet-klasse lokaliseert als de zoekcriteria.Daarom is het minimalisatieprobleem op het leren van de vergelijking (7) blijft als((((𝒙,,𝒚)),,𝑭,,𝑻,,𝒂,,𝑸))𝒙𝒚𝑭𝑻𝒂𝑸\ links (\ links (\ bm {x}, \ bm {y} \ rechts), \ bm {f}, \ bm {t}, \ bm {a}, \ bm {q} \ rechts).Aldus geeft de nauwkeurigheid verkregen door de SVM de geschiktheid van het individu aan111De nauwkeurigheid die in deze sectie wordt aangegeven, heeft het doel om BP te optimaliseren;Desalniettemin de nauwkeurigheid aangegeven in sectie4.2verwijst naar de statistiek om de aanvalsreacties te meten..

3.3.5Initialisatie, huisartsenparameters en oplossingsaanduiding

Zodra we de AVC -structuur van elk individu definiëren, stellen we de parameters in van het evolutieproces van BP (zie tabel5) en stel de afbeeldingsdatabase op.Vervolgens wordt een willekeurige initiële populatie gemaakt met behulp van een gehalte halve techniek, die de helft van de individuen met de kweekmethode en de helft selecteert met de volledige methode.De volledige methode maakt gebalanceerde bomen volgens de maximale initiële diepte, terwijl de kweekmethode onevenwichtige bomen maakt die takken van verschillende lengtes mogelijk maken.Hier hebben we een limiet van maximale diepte vastgesteld om in de loop van de tijd een ongecontroleerde groei van bomen te voorkomen.Boomdiepte wordt dynamisch ingesteld met behulp van twee maximale waarden om de grootte van elke persoon binnen de populatie te beperken.De dynamische maximale diepte is een maximale waarde die mogelijk niet wordt overtroffen, tenzij de conditie van het individu beter is dan de beste oplossing die tot nu toe wordt gevonden.Als het optreedt, wordt de dynamische maximale dieptewaarde bijgewerkt naar de nieuwe sterkste persoon.De echte maximale diepte is een harde limiet die niemand onder geen enkele omstandigheid mag overtreffen.Selectie wordt uitgevoerd met behulp van een toernooi met lexicografische parsimony -druk terwijl het beste individu wordt gehouden.Ten slotte wordt het evolutieproces beëindigd totdat een van deze twee voorwaarden is bereikt: 1) een acceptabele classificatiesnelheid of 2) het totale aantal generaties.Het evolutieproces bereikt dus een optimale populatie die de beste oplossing voor het probleem bevat.

ParametersBeschrijving
Generaties30
Aanvankelijke bevolking30
Crossover op chromosoomniveau0,4
Crossover op genniveau0,4
Mutatie op chromosoomniveau0,1
Mutatie op genniveau0,1
BoomdiepteDynamische diepte -selectie
Dynamische max diepte7 niveaus
Echte maximale diepte9 niveaus
SelectieToernooi met lexicografische
Parsimony Druk
OverlevingElitarisme

3.4Tegenstanders

Strevenaanvallen worden geclassificeerd, afhankelijk van de beschikbare informatie van het model en de gewenste aanval om een ​​specifieke klasse te voorspellen.Vandaar dat we drie verschillende aanvallen kiezen: een witte doos zonder rand (FGSM), een zwarte doos die niet is gericht (één pixelaanval) en een gerichte aanval (tegenstanders), die in de volgende paragrafen zal worden verklaard.

3.4.1Snelle gradiënttekenmethode

De snelle gradiënttekenmethode voorgesteld door[[26], is de meest gebruikte methode voor het berekenen van AE's die een invoerafbeelding hebben gegeven vanwege de eenvoudige implementatie (zie voorbeeldafbeeldingen in figuur2).Het stelt voor om het verlies van de classificator te verhogen door de volgende vergelijking op te lossen:R=ϵteken((J((e,,𝐱,,yl))))𝜌Italiek-ϵteken𝐽𝜃𝐱onderscript𝑦𝑙\ rho = \ epsilon \; \ text {Sign} (\ nabla j (\ theta, \ mathbf {x}, y_ {l}))), waarJ(())𝐽\ Nabla j ()Berekent de gradiënt van de kostenfunctie rond de huidige waarde van de modelparameterse𝜃\ thetaMet het respect voor de afbeelding𝐱𝐱\ Mathbf {x}en het doellabelylonderscript𝑦𝑙y_ {l}.teken(())teken\ Text {Sign} ()geeft de tekenfunctie aan, die ervoor zorgt dat de omvang van het verlies wordt gemaximaliseerd enϵItaliek-ϵ\ epsilonis een kleine scalaire waarde die de norm beperktLonderscript𝐿L _ {\ infty}van de verstoring.

De door FGSM gegenereerde verstoringen maken gebruik van de lineariteit van de DL -modellen in de hogere dimensionale ruimte om het model het beeld verkeerd te laten classificeren.De implicatie van de lineariteit van DL -modellen ontdekt door FSGM is die overdraagbaarheid tussen modellen bestaat.Auteurs in[[77]meldde dat met de ImageNet-gegevensset het top-1 foutenpercentage met behulp van de perturbaties gegenereerd door FGSM ongeveer 63-69% is voorϵ[[2,,32]Italiek-ϵ232\ epsilon \ in \ links [2,32 \ rechts].

Hersenprogrammering is immuun voor tegenstanders: naar een nauwkeurige en robuuste beeldclassificatie met behulp van symbolisch leren (2)

3.4.2Eén pixelaanval

De ene pixelaanval werd gepland in een minimaal scenario waarbij slechts één pixel in de afbeelding wordt gewijzigd om de DL -modellen voor de gek te houden met afbeeldingen van een verminderde grootte van32×32323232 \ maal 32pixels.Met deze beperkingen, Su et al.Voor de gek van drie verschillende CNN -modellen op 70,97% van de testbeelden met de wijziging van slechts één pixel per afbeelding[[48].Ook werd gemeld dat het gemiddelde vertrouwen van de CNN's op de verkeerde voorspelling op de foto's 97,47%was.

De ene pixel tegenstanders zijn gebaseerd op een black-box-aanval, waarop geen informatie over het netwerk vereist is.Het maakt gebruik van een populatie-gebaseerd optimalisatie-algoritme voor het oplossen van complexe multimodale optimalisatieproblemen met de naam differentiële evolutie[[78]om de aanval te genereren.Het zoekt een oplossing vanuit een vectorruimte5superscript5\ MATHBB {R}^{5}dat bezit (X, Y) coördineert beperkt door de beeldgrootte en de drie banden van de RGB -kleurwaarden.Binnen een populatie wijzigt het willekeurig de elementen van de vijf-dimensionale individuen om nieuwe nakomelingen te creëren zodat ze concurreren in de huidige iteratie om een ​​betere fitheid te verkrijgen.In het geval van twee pixels heeft een persoon een vectorruimte10superscript10\ Mathbb {r}^{10}Dat bevat de coördinaten en kleurenwaarden van beide pixels, enzovoort voor personen met meer pixels.Tijdens de run gebruikte het algoritme de waarschijnlijkheid van het voorspelde label om het fitnesscriterium te berekenen.De laatste overlevende persoon wordt gebruikt om de pixels in de afbeelding te wijzigen.

Samenvattend, laat de vector𝐱=((X1,,,,XN))𝐱onderscript𝑥1onderscript𝑥𝑛\ Mathbf {x} = (x_ {1}, \ dots, x_ {n})wees eenN-Dimensionaal beeld, wat de invoer is van de doelclassificatorF𝑓Fdie de klasse correct voorspeltTvan de afbeelding.De kans op𝐱𝐱\ Mathbf {x}geassocieerd met de klasTisFl((𝐱))onderscript𝑓𝑙𝐱f_ {l} (\ mathbf {x}).Het bouwt een additieve tegenstandersstoringsvectore((𝐱))=((e1,,,,eN))𝑒𝐱onderscript𝑒1onderscript𝑒𝑛en (\ mathbf {x}) = (e_ {1}, \ dots, e_ {n})volgens𝐱𝐱\ Mathbf {x}, de klasdoelen de beperking van maximale wijzigingenD, een klein aantal dat de afmetingen uitdrukt die zijn gewijzigd, terwijl andere dimensies vane((𝐱))𝑒𝐱E (\ Mathbf {x}))links als nullen.Voor gerichte aanvallen is het belangrijkste doel om de optimale oplossing te vindene((𝐱))e (\ mathbf {x}) * *Dat lost de volgende vergelijking op:

maximaale((𝐱))onderscript𝑒𝐱\ DisplayStyle \ max_ {e (\ Mathbf {x})*}FTARGeT((𝐱+e((𝐱))))onderscript𝑓𝑡𝑎𝑟𝑔𝑒𝑡𝐱𝑒𝐱\ displaystyle f_ {target} (\ mathbf {x}+e (\ mathbf {x}))(12)
S.T.e((𝐱))0D.onderscriptnorm𝑒𝐱0𝑑\ displaystyle || e (\ mathbf {x}) || _ {0} \ leq d \; \; \;.

Daarom is het geval van één pixelaanvalD=1𝑑1D = 1, maar het kan worden uitgebreid tot meerdere pixels door te stijgenD𝑑D.Opgemerkt moet worden dat één pixelaanval werd uitgevoerd op DL -modellen met ingangen van CIFAR 10 -gegevensset.Het vertegenwoordigt dus een aanzienlijke wijziging van dergelijke kleine beelden;Desalniettemin is het onbeduidend met de databases die in het huidige werk zijn bestudeerd.Daarom gebruiken we een meervoudige pixelaanvalD>>1veelgrootte dan𝑑1D >> 1Om te werken met beelden met echte maat.Opgemerkt moet worden dat het vergroten van het aantal pixels in deze aanval het perturbatierisico zal verhogen om merkbaar te zijn (zie voorbeeldafbeeldingen in figuur3).

Hersenprogrammering is immuun voor tegenstanders: naar een nauwkeurige en robuuste beeldclassificatie met behulp van symbolisch leren (3)

3.4.3Tegenstander

De tegenstanderspatch was tegen de traditionele strategie voor het creëren van een gerichte AE door een maximale verstoring te vindene((𝐱))𝑒𝐱E (\ Mathbf {x}))dat maximaliseert deFTARGeT((𝐱+e((𝐱))))onderscript𝑓𝑡𝑎𝑟𝑔𝑒𝑡𝐱𝑒𝐱f_ {target} (\ mathbf {x}+e (\ mathbf {x})))is een methode om een ​​verstoring op het hele beeld te vervangen door een patch (zie figuur4).De robuustheid van deze patches ligt op de grote verscheidenheid aan transformaties waarop ze elk beeld kunnen aanvallen en de voorspelling van de classificeerders op de gewenste klasse kunnen richten.Ook werken ze in echte werkomgevingen waar ze kunnen worden afgedrukt, gefotografeerd of zelfs wanneer de patch te klein is;Ze kunnen maken om de hele scène te negeren om de doelklasse te voorspellen.

Om patch te bouwenP^^𝑝\ hat {p}, het werd gebruikt een variant van de verwachting over transformatie (EOT) framework, waarop de patch is getraind om de volgende vergelijking te optimaliseren:

P^=argmaximaalP^𝔼XX.TT.lL[[aanroepenF((y,,A((P,,𝐱,,l,,T))))],,^𝑝onderscriptargmaximaal^𝑝onderscript𝔼Formulae-sequentie𝑥𝑋𝑡𝑇𝑙𝐿gescheiden- []𝑓𝑦𝐴𝑝𝐱𝑙𝑡\ hat {p} = \ operatorName*{arg \, max} _ {\ hat {p}} \ mathbb {e} _ {x \ in x.t \ in t.l \ in l} [\ log f (y, a (a (P, \ Mathbf {x}, l, t))] \; \; \;,(13)

waarX𝑋Xis een trainingsset van afbeeldingen,T𝑇Tis een verdeling over transformaties van de patch,L𝐿Lis een verdeling over locaties in de afbeelding, en((y,,𝐱))𝑦𝐱(Y, \ mathbf {x}))zijn respectievelijk het label en de beeldvector.De verwachting ten opzichte van de trainingsbeelden verbetert de effectiviteit van de patch, ongeacht wat er op de achtergrond staat.Het werd bewezen door[[50]De universaliteit van de patch met verschillende afbeeldingen met verschillende achtergronden.Een variatie van deze methode is om een ​​beperking van de vorm toe te voegenP-PORiG<<ϵonderscriptnorm𝑝onderscript𝑝𝑜𝑟𝑖𝑔Italiek-ϵ|| p-p_ {orig} || _ {\ infty} <\ epsilonnaar het doel van de patch om het te camoufleren.De beperking handhaaft de uiteindelijke patch om binnen te zijnϵItaliek-ϵ\ epsilonin deLonderscript𝐿L _ {\ infty}Norm van een startpatchPORiGonderscript𝑝𝑜𝑟𝑖𝑔p_ {orig}.

Hersenprogrammering is immuun voor tegenstanders: naar een nauwkeurige en robuuste beeldclassificatie met behulp van symbolisch leren (4)

4Experimenten

Robuuste classificatie is een zeer waardevol kenmerk met betrekking tot automatische systeemontwikkeling na veiligheid en vertrouwen van de voorspellingen van kunstwerken.In deze studie analyseren we de prestaties van de algoritmen met behulp van nauwkeurigheid.Bovendien gebruiken we de nauwkeurigheidsverhouding tussen tegenstanders en schone afbeeldingen om de robuustheid te meten.Bovendien stellen we een statistische analyse van het vertrouwen van elke classificator voor om de resultaten te bevestigen.Daarom bestaat dit experiment uit het bestuderen van de nauwkeurigheid en robuustheid tegen AAS met behulp van drie van de belangrijkste benaderingen voor beeldclassificaties:

  • 1.

    Traditionele handgemaakte functies Algoritme (SIFT+FV)

  • 2.

    Deep genetische programmeermethode (BP)

  • 3.

    DCNN -modellen (Alexnet, VGG, ResNet18 en ResNet101).

We beschouwen onconventionele training, validatie en testgegevenssets, omdat we twee verschillende afbeeldingsdatabases toepassen die door experts voor AMC zijn samengesteld.Trainings- en validatiegegevenssets zijn geconstrueerd uit de Kaggle -database, terwijl testen een standaard database wikiart gebruikt (zie tabel6).Het doel is om een ​​real-world scenario na te bootsen waarbij de voorgestelde modellen worden getest met standaard benchmarks.

Dit werk analyseert de dreiging van het gebruik van drie soorten AA naar het hierboven genoemde model.De White Box Untargeted (FGSM) bepaalt de impact van een gemakkelijke en directe bedreiging voor DCNN door de parameters te kennen.Ook bestuderen we het overdraagbaarheidseffect op andere DCNN -modellen, die zich uitstrekken tot BP en SIFT+FV, die verschillende architecturen zijn.We analyseren het gedrag van dergelijke verstoringen van deze architecturen, die verkeerde voorspellingen kunnen veroorzaken met de toevoeging van subtiele textuur aan de kunstwerken.De Black Box Untargeted (Multiple Pixel Attack) analyseert het gevaar van een aanval die probeert locaties en pixelwaarden te vinden om een ​​verstoring te bouwen die de voorspelling van het model van een illustratie -beeld verandert.De beoogde aanval gebruikt de tegenstanders om de robuustheid van dergelijke gemodificeerde beeldpatches, die kunnen worden geroteerd, op willekeurige locaties kan worden gedraaid en gedrukt om in real-world omstandigheden in het kunstwerk te verschijnen om een ​​misleidende voorspelling van de doelklasse te veroorzaken.Bovendien analyseren we het overdraagbaarheidseffect van dergelijke patches via alle modellen.

4.1Datasets

We gebruiken dezelfde datasets uit het experiment van AMC gerapporteerd in[[17].De training- en validatie -set afbeeldingen worden verkregen van de Kaggle -website van de Digitized Artwork -gegevensset.Deze dataset bestaat uit vijf categorieën kunstmedia: tekenen, schilderen, iconografie, gravure en sculptuur.De graveerklasse bestaat uit twee verschillende soorten;De meeste van hen waren zwart -witte kunstwerken.De andere stijl was Japanse gravures, die kleur in de afbeeldingen introduceren.Dus, de graveerklasse werd opgesplitst in het graveren van zwart -wit en gravure kleur.Het wordt gebruikt voor het testen van een standaard database Wikiart, waar het de afbeeldingen uit dezelfde categorieën is geselecteerd.Aangezien de Wikiart-gravure-klasse Grayscale is, werd de Ukiyo-e-klasse (Japanse gravures) van Wikiart gebruikt als de gravure kleurklasse.Ook wordt de set afbeeldingen van de categorie -landschappen, die schilderen van gerenommeerde kunstenaars schilderen, toegevoegd om de schilderklasse te testen.Tafel6Biedt het aantal kunstwerken voor elke dataset.

IconografieSchilderenTekeningenBeeldhouwwerkGraveer BWGravure kleurCaltech -achtergrond
Trein1038102155386842630233
Geldigmaking1038102155386828319233
Wikiart25120892041166951167233
Wikiart -landschappen136

4.2Evaluatiemetrieken

We maken gebruik van classificatie -nauwkeurigheid als een maat voor de prestaties voor de classificaties, wat gewoon de snelheid is van de juiste classificaties die door de volgende formule worden gegeven:

ACCuRACy=1NN=1ND((yN,,yN)),,𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦1𝑁superscriptonderscript𝑛1𝑁𝑑onderscriptsuperscript𝑦𝑛onderscript𝑦𝑛Nauwkeurigheid = \ frac {1} {n} \ sum_ {n = 1}^{n} d (y^{\ prime} _ {n}, y_ {n}) \; \; \; \;,(14)

waarN𝑁Nis het totaal van testbeelden,yNonderscriptsuperscript𝑦𝑛en^{\ prime} _ {n}is het voorspelde label voor de afbeeldingN𝑛N,,yNonderscript𝑦𝑛Y_ {n}is het originele label voor de afbeeldingN𝑛N, EnD((X,,y))=1𝑑𝑥𝑦1D (x, y) = 1alsX=y𝑥𝑦x = yen 0 anders.

Bovendien hebben we als robuustheidsmaat de nauwkeurigheidsverhouding tussen tegenstanders en schone afbeeldingen gebruikt die zijn geïmplementeerd door[[77].Deze metriek betekent dat als de verhouding er een bereikt, de nauwkeurigheid van AES en de schone afbeeldingen hetzelfde is.Desalniettemin, als het naar nul neigt, betekent dit dat de AA werkte om de classificator voor de gek te houden.Als deze verhouding hoger is dan 1, houdt dit in dat de AA helpt om verkeerd geclassificeerde afbeeldingen te corrigeren.De volgende vergelijking berekent de verhouding:

RATiO=ACCADvACCCleAN,,𝑅𝑎𝑡𝑖𝑜𝑎𝑐onderscript𝑐𝑎𝑑𝑣𝑎𝑐onderscript𝑐𝑐𝑙𝑒𝑎𝑛Ratio = \ frac {acc_ {adv}} {acc_ {clean}} \; \; \; \;,(15)

waarACCADv𝑎𝑐onderscript𝑐𝑎𝑑𝑣ACC_ {adv}is de classificatienauwkeurigheid op AES, enACCCleAN𝑎𝑐onderscript𝑐𝑐𝑙𝑒𝑎𝑛ACC_ {Clean}is de classificatienauwkeurigheid op de schone afbeeldingen.

4.3Implementatiegegevens

In deze subsectie schetsen we de implementatiegegevens voor alle geleerde modellen:

  • 1.

    Hersenprogrammering: werd geïmplementeerd op MATLAB met behulp van een gewijzigde versie van GP Lab en de LIBSVM -bibliotheek voor de SVM.

  • 2.

    SIFT+FV: werd geïmplementeerd op MATLAB met behulp van VLFEAT -bibliotheken voor de SIFT -beschrijving, GMM en Fisher -vectoren.Het werd gebruikt de SVM geleverd door MATLAB.

  • 3.

    DCNN: Voor de implementatie van de vier modellen (AlexNet, VGG, ResNet18 en ResNet101) gebruiken we de vooraf getrainde modellen van Pytorch v1.1.Deze modellen werden omgeschoold met behulp van transfer learning voor het probleem van de kunstmedia.

Ook schetsen we elk van de AA:

  • 1.

    FGSM: werd geïmplementeerd in Pytorch v1.1 met behulp van de validatie- en testdatasets om AE's te berekenen met standaardwaarden voor schaalϵ=2,,4,,8,,16,,32Italiek-ϵ2481632\ epsilon = {2,4,8,16,32}voor alle DCNN -modellen.

  • 2.

    Meerdere pixelaanval: werd geïmplementeerd met behulp van 100 willekeurige afbeeldingen uit de testdataset (50 van elke klasse) in MATLAB en Python.Python -versie werd geprogrammeerd met behulp van de differentiële evolutie met de PYGMO -bibliotheek, en de versie van MATLAB gebruikte de differentiële evolutiebibliotheek die beschikbaar was op hun bestandsuitwisselingswebsite.Beide implementaties gebruikten dezelfde instellingen van 50 individuen, 30 generaties, een crossover -waarschijnlijkheid van 0,9, enD=10,,000𝑑10000D = 10.000pixels.

  • 3.

    Adversariële patch: werd geïmplementeerd met behulp van 100 afbeeldingen uit de trainingsdataset voor elk DCNN -model in Pytorch v1.1 met de volgende parameters ingesteld om de patch te bouwen: patchgrootte van50×50505050 \ keer 50Pixels, een maximum van 100 iteraties per afbeelding met een stopcriteria van 0,9 achterste waarschijnlijkheid van de doelklasse.Terwijl we het binaire classificatieprobleem hebben gedefinieerd, kiezen we de achtergrondklasse als doelvoorspelling om het aantal klassenbeelden te meten dat het model als de doelklasse voorspelt.

4.4Resultaat

De resultaten verkregen uit de hierboven genoemde experimenten worden gepresenteerd en besproken in de volgende subsectie.

4.4.1FGSM

In tafel7, presenteren we de resultaten voor de training- en validatiegegevenssets van Kaggle, samen met de AES die is berekend met FGSM voor alle DCNN -modellen.We rapporteren de nauwkeurigheid van de classificatie in elke fase van training en validatie naast de nauwkeurigheid van alle modellen die met de AES zijn getest.Hier willen we de invloed meten in de voorspelling van de FGSM op twee manieren: 1) direct, omdat we de parameters en verstoring van het model kennen, en 2) indirect, door de overdraagbaarheid van de aanval.Eerder meldden andere onderzoekers dat AE's verschillende CNN -modellen konden beïnvloeden door ze op te stellen voor dezelfde taak.Toch willen we de analyse uitbreiden naar verschillende architecturen zoals BP en SIFT+FV die kunnen worden beïnvloed door deze subtiele verstoringen naar de gedigitaliseerde kunstwerken.

Eerst hebben we opgemerkt dat SIFT+FV -modellen overbodig leken te zijn.Daarom voeren we twee soorten verificaties uit die in tabel worden gepresenteerd8.We gebruiken de hyperparameters optimizer van Matlab en dekruisvalFunctie die het model valideert met behulp van een 10-voudige kruisvalidatie.Na tien runs retourneert de Hyperparameters Optimizer het beste model voor elke klasse.De resultaten over de trein- en validatiegegevenssets worden vermeld in deoptimalisatiekolom bij tabel8.DekruisvalFunctie Partitioneer de gegevens willekeurig in tien sets van gelijke grootte, train later een SVM -classificator op negen sets en herhaal het proces tien keer.Daarna hebben we de gemiddelde nauwkeurigheid op trein- en validatiegegevenssets voor elke klasse over elke tien modellen berekend.We presenteren de resultaten in dekruisvalidatiekolom bij tabel8.We hebben dezelfde resultaten verkregen als het oorspronkelijke experiment.Vervolgens toonden de resultaten aan dat de gegevens de modellen niet te veel tellen.

Daarom kan het in tabel worden waargenomen7Hoe drastisch de prestaties van DCNN kan worden laten vallen.De worst-case was de sculptuurklasse, de prestaties van de VGG gingen van 97,62% naar 14,38%, Alexnet daalde van 95,78% tot 14,57%, ResNet18 daalde van 96,88% tot 19,07% en ResNet101 daalde van 97,89% tot 37,86%.Ook wordt waargenomen dat het overdraagbaarheidseffect tussen de DCNN -modellen belangrijker is bijϵ=32Italiek-ϵ32\ epsilon = 32.De klasse -klasse vertoont bijna hetzelfde gedrag als de sculptuurklasse, waarbij de andere netwerken worden beïnvloed door AE's.Voor alle andere klassen is het effect onmerkbaar, maar de nauwkeurigheid wordt aanzienlijk beïnvloed wanneer het model overeenkomt met de AE.

In sommige gevallen werd SIFT+FV beïnvloed door FGSM.In de tekenklasse werden de prestaties bijvoorbeeld met bijna 8%verminderd.En voor het schilderij was de nauwkeurigheid met ongeveer 4%verlaagd.Dit resultaat toont een gedeeltelijke overdraagbaarheid van AES naar SIFT+FV, omdat, ongeacht het toepassen van DCNN, de verstoring de prestaties van deze twee klassen in gevaar bracht.BP handhaaft echter zijn prestaties in bijna elke test;De nauwkeurigheidsvariatie door alle analyse was minder dan 2%.Figuur5illustreert een voorbeeld dat aantoont dat de gegenereerde kaarten van de AVC geen enkele verandering in hun antwoorden met de FGSM lijden.

Figuur7presenteert de resultaten van de tabel7De nauwkeurigheidsverhoudingen gebruiken tussen tegenstanders en schone afbeeldingen.We zien dat de variatie van BP onmerkbaar is in vergelijking met SIFT+FV- en DCNN -modellen.We hebben ook opgemerkt dat de prestaties van DCNN's in bijna alle klassen drastisch daalden en minder dan 20% van de oorspronkelijke nauwkeurigheid bereikten wanneer de verstoring overeenkomt met het netwerkontwerp.In alle andere gevallen vermindert de aanval de nauwkeurigheid tot ongeveer 20% van de werkelijke prestaties, rekening houdend met schone afbeeldingen voor de klassen sculptuur, graveer BW en gravure kleur.

Iconografie
AlexnetVGGResNet18ResNet101
treinvalϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP92.8491.4291.4291.4291.4291.4291.4291.4291.4291.4291.4291.4291.4291.4291.4291.4291.4291.4291.4291.4291.4291.42
SIFT+FV99.9295.9195.9195.9195.9195.5994.2695.8395.8396.0795.5294.5795.7595.7596.0795.5294.3495.9995.9996.0795.6794.73
Alexnet99.6198.6696.396.383.2452.5638.3998.5198.5198.4398.0397.6498.5898.5898.6698.0397.498.5198.5198.5198.0397.48
VGG10099.2199.2999.2999.0698.8296.8591.991.947.0517.716.7699.2199.2198.9898.7495.8399.2199.2198.9898.3597.32
ResNet1810098.998.6698.6698.6698.997,9598.6698.6698.6698.0395.8390.2490.2452.0129.0332.198.6698.6698.4397.1795.75
ResNet10110099.3799.2199.2199.2199.0697.7299.2999.2999.0698.997.0199.3799.3799.2197,9595.2894.3494.3467.9850.0451.3
Schilderen
treinvalϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP99.6899.0498.2598.2598.4898.4198.4898.7898.898.6498.3398.4198.898.898.5698.6498.5698.4198.4198.5698.897.69
SIFT+FV99.7692.2492.0892.0892.0089.8487.8492.1692.1692.0890.4888.0891.9291.9291.7690.0888,0092.0092.0091.8489.7687.60
Alexnet98.9697.6993.4693.4683.0166.9969.397.5397.5397.1396.8996.4197.4597.4596.8996.9796.4997.4597.4597.2197.0596.73
VGG99.9298.1797.9397.9397.5396.7392.8289.3189.3132.1414.2714.9197.6997.6997.0595.4588.2897.6997.6996.8195.1488.12
ResNet1810097.8597.9397.9397.9397.4596.3397.7797.7797.0596.3393.2286.9286.9243.9431.8240.7597.6997.6997.1395.7792.9
ResNet10110098.5698.7298.7298.4898.1796.6598.6498.6498.2596.4993.8698.7298.7298.1795.8592.5891.1591.1555.4243.9449.68
Tekeningen
treinvalϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP96.5690.5990.5990.5990.5990.5990.5990.5990.5990.5990.5990.5990.5990.5990.5990.5990.5990.5990.5990.5990.5990.59
SIFT+FV99.8783.8483.8483.8483.9783.4681.3084.2284.2284.4883.5981.9384.2284.2284.2282.9581.6884.1084.1084.3582.9580.79
Alexnet96.4491.3585.7585.7566.7944.9135.6290.8490.8491.2290.5988.5591.0991.0991.0990.5989.0690.7190.7191.0991.0990.08
VGG99.7595.4295.2995.2994.7893.5187.0274.4374.4328.7515.7814.3894.7894.7893.1388.6877.8694.7894.7893.7790.5983.46
ResNet1899.8794.4494.2794.2793.6492.3786.993.3893.3891.2286.7777.4872.972.931.0423.4122.7793.6493.6492.3788.1780.28
ResNet10199.8795.895.895.895.4293.8989.3195.5595.5593.8990.8483.3395.2995.2993.1388.6880.7976.0876.0847.9641.4838.55
Beeldhouwwerk
treinvalϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP93.1993.2692.7992.7992.7992.7992.7992.7992.7992.7992.792.7992.8892.8892.7992.7992.792.8892.8892.7992.8892.7
SIFT+FV99.5587.3587.4487.4485.7985.1583.6887.2687.2686.3485.1584.4287.3587.3585.9884.9785.0687.4487.4485.9885.2485.15
Alexnet99.3695.7890,9390,9363.2427.5014.5795.7895.7895.4294.6889.5595.8895.8895.7894.1389.0995.9795.9796.0694.6890.10
VGG10097.6298.2698.2697.8994.8778.2884.6984.6937.7617.8714.2198.0898.0897.0791.3872.5997.9897.9896.9893.3178,00
ResNet1810096.8897.2597.2596.8895.0580.6696.8896.8896.1592.3977.5484.8884.8845.9225.3019.0796.7096.7095.6992.5879.65
ResNet10110097.8998.4498.4498.1796.0687.0898.4498.4498.0895.4284.8898.3598.3596.9892.3077.4589.0089.0060.4944.1837.86
Graveer BW
treinvalϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP89.7692.0592.2392.2392.2391.7091.8791.7091.7092.0691.8791.7091.7091.7092.2392.0591.5391.7091.7091.8791.8792.05
SIFT+FV10093.9994.3594.3594.7094.1792.7694.3594.3594.3594.1793.6494.3594.3594.5294.1793.4694.3594.3594.8894.3593.46
Alexnet99.7699.2996.1196.1178.6256.7147.8899.1299.1299.1298.9498.4199.1299.1299.1298.9498.0699.1299.1299.1298.9498.41
VGG10010099.8299.8299.8299.6599.2998.5397.5373.1449.2947.1799.8299.8299.8299.8299.1299.8299.8299.8299.8299.29
ResNet1810010010010099.8299.8298.9499.8299.8299.8299.6598.2395.5895.5878.9864.4963.0710010010010098.41
ResNet10110010010010010099.8299.4710010099.8299.8299.4710010099.6599.6598.7698.9498.9494.7089.7588.16
Gravure kleur
treinvalϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP98.3397.3797.3797.3797.3797.3797.3797.3797.3797.3797.3797.3797.3797.3797.3797.3797.3797.3797.3797.3797.3797.37
SIFT+FV10050,0044.7444.7444.7444.7450,0047.3747.3747.3747.3750,0047.3747.3744.7447.3747.3750,0050,0047.3747.3750,00
Alexnet10010073.6873.6823.6813.1615.7910010010010094.7410010010010094.7410010010094.7492.11
VGG10010010010010010097.3797.3797.3726.3215.7913.16100100100100100100100100100100
ResNet1895,0010097.3797.3797.3797.3781.5897.3797.3797.3789.4781.5852.6352.6313.1602.6321.0597.3797.3797.3794.7478.95
ResNet10110010010010010010097.3710010010010097.3710010010097.3794.7494.7494.7481.5865.7968.42

optimalisatiekruisvalidatie
SIFT+FVtreinvalGemiddelde treinGemiddelde val
Iconografie10095.2899.2895.28
Schilderen99.7692.7298.8492.83
Tekeningen10083.8498.2883.44
Beeldhouwwerk10086.7198.6386.48
Graveer BW10093.6499.3293.87
Gravure kleur10050,0092.0047.11
Hersenprogrammering is immuun voor tegenstanders: naar een nauwkeurige en robuuste beeldclassificatie met behulp van symbolisch leren (5)
Hersenprogrammering is immuun voor tegenstanders: naar een nauwkeurige en robuuste beeldclassificatie met behulp van symbolisch leren (6)
Hersenprogrammering is immuun voor tegenstanders: naar een nauwkeurige en robuuste beeldclassificatie met behulp van symbolisch leren (7)
Hersenprogrammering is immuun voor tegenstanders: naar een nauwkeurige en robuuste beeldclassificatie met behulp van symbolisch leren (8)
Hersenprogrammering is immuun voor tegenstanders: naar een nauwkeurige en robuuste beeldclassificatie met behulp van symbolisch leren (9)

De testfase vertoonde een nog erger gedrag in vergelijking met de validatiegegevensset voor de DCNN en SIFT+FV.De daling van de overdraagbaarheidsprestaties was hoger toen de schaalfactorϵItaliek-ϵ\ epsilonwordt groter.Tafel9laat zien dat de nauwkeurigheid in alle DCNN -modellen werd aangetast voor drie klassen: schilderen, tekeningen en gravure kleur.Het slechtste geval is bijvoorbeeld graveren in de kleur, waarbij Alexnet daalde tot 17,22% van een schone score van 94,72%, VGG en ResNet18 hun prestaties verminderd tot bijna 5% van de nauwkeurigheid na het scoren van respectievelijk 99% en 96%, en ResNet101 bereikt.49%, wat minder getroffen was in nauwkeurigheid.Bovendien zijn de experimentele resultaten in tabel9Zorg voor de FGSM -overdraagbaarheid in DCNN -modellen.Merk op dat het effect opϵ=32Italiek-ϵ32\ epsilon = 32bereikt de meer significante veranderingen.Ook liet de test de slechte prestaties van SIFT+FV zien, rekening houdend met schone beelden.In vier van de zeven klassen (schilderlandschappen, tekeningen, sculptuur en gravure kleur), is de nauwkeurigheid ver onder om te concurreren met DCNN's.Bovendien werd SIFT+FV beïnvloed door AE's in iconografie, schilderlandschappen en sculptuur, waar ongeveer 10% van de oorspronkelijke score de prestaties verminderde.Ten slotte vertoonde BP van hoge kwaliteit en gestage resultaten om zijn scores uit schone afbeeldingen na AE's te houden met minimale tot nulveranderingen voor alle klassen.

Bovendien is het merkbaar dat, in tegenstelling tot SIFT+FV, BP vergelijkbare resultaten bereikt als de scores van DCNNS.Bovendien presenteren we in cijfers8-9De verhouding van nauwkeurigheid op AES voor de testklassen.We hebben een zeer vergelijkbaar gedrag waargenomen, althans voor BP, waarvan de snelheid voor alle experimenten bijna één blijft.We zien een drastische daling van de prestaties van DCNN -modellen wanneer de verstoring overeenkomt met de architectuur van het netwerk en beïnvloedt de overdraagbaarheid van AES naar andere DCNN -modellen en SIFT+FV.

Iconografie
AlexnetVGGResNet18ResNet101
testϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP91.7491.6691.6691.8291.7491.7491.6691.6691.7491.7491.7491.6691.6691.6691.5891.591.5891.5891.5891.5891.58
SIFT+FV86.1685.5485.5484.7183.2677.6985.5485.5484.9283.4777.4885.9585.9584.7183.0676.2486.1686.1684.7183.0675.62
Alexnet96.0793.3993.3970.0437.428.7295.8795.8795.0494.4292.9896.0796.0795.8794.8393.1896.0796.0795.4594.6392.15
VGG95.8795.4595.4594.8391.3280.9976.6576.6536.9823.9721.6995.6695.6694.2187.8176.8695.8795.8795.8790.9182.44
ResNet1896.4995.8795.8794.8394.2187.8195.6695.6694.4290.583.8876.8676.8638.6425.2121.4996.0796.0794.2190.2985.12
ResNet10195.2595.2595.2594.8392.7789.8895.4595.4594.6391.9488.0295.4595.4592.5687.683.2679.9679.9649.3836.1636.36
Schilderen
testϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP10095.6595.6595.6595.6595.6595.6595.6595.6595.6595.6595.6595.6595.6595.6595.6595.6595.6595.6595.6595.65
SIFT+FV94.8394.8394.8394.7094.5793.6394.9294.9294.8894.5793.6394.8894.8894.7994.4493.2894.8894.8894.7094.3293.20
Alexnet94.0690.5790.5764.6441.0441,0094.1094.1093.9094.0194.9294.1094.1094.0694.3295.3594.1094.1094.0694.0695,00
VGG93.3793.2893.2892.6487.4760.1261.1561.1513.1410.4210.6892.8992.8991.1780.1047.5592.5992.5990.7881.0544.96
ResNet1894.2394.1994.1994.4094.4092.6494.0194.0193.6391.3081.9164.8664.8615.2513.0115.0793.8093.8092.7289.8480.19
ResNet10195.9195.8295.8295.7894.6290.0995.8295.8295.6990.4479.0395.6195.6194.6688.3373.4775.2475.2430.6219.0419.98
Schilderlandschappen
testϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP100100100100100100100100100100100100100100100100100100100100100
SIFT+FV75.3475.0775.0772.9070.4662.675.6175.6173.7170.4662.6075.3475.3473.1768.8360.7075.3475.3472.9068.2959.62
Alexnet93.7786.9986.9961.2541.4635.7793.5093.5092.6891.0690.2493.5093.5092.6891.6090.5193.7793.7792.6891.3390.51
VGG94.5894.5894.5894.3190.7973.7180.7680.7642.0128.7330.8994.3194.3194.3188.0872.6394.0494.0493.2287.5370.19
ResNet1895.1294.8594.8593.7792.9590.7994.3194.3192.4189.4381.8472.3672.3642.8233.6038.4894.3194.3191.688.6279,95
ResNet10195.3995.1295.1295.1293.7789.4394.5894.5894.5893.5083.7494.3194.3192.9588.8978.8680.7680.7650.9643.9044.72
Tekeningen
testϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP94.0594.2894.2893.5993.8194.593.8293.8294.0593.5994.7393.8193.8193.5993.5994.0593.8193.8193.5993.5993.81
SIFT+FV73.6168.4268.4266.3662.756.5268.4268.4267.5162.757.8968.4268.4266.8262.0156.7568.1968.1967.2862.0156.75
Alexnet86.7377.877.857.2141.1932.7285.8185.8186.2784.6779.1885.8185.8185.3583.7580.0985.8185.8185.5884.6781.69
VGG91.9991.9991.9990.8988.7980.7872.7772.7735.720.5918.9991.391.389.0283.373.9191.5391.5389.783.9876.89
ResNet1890,8590,8590,8589.788.7981.4690.3990.3987.4181.6974.3771.8571.8536.1624.4924.4990.1690.1686.9681.9274.83
ResNet10193.5993.3693.3693.1491.5385.8193.1493.1490.6285.5876.4393.1493.1490.1683.0775.2972.2772.2745.5435.2433.41
Beeldhouwwerk
testϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP90.5490.8390.8390.8390.8390.8385.9685.9685.9685.9685.9690.8390.8390.8390.8390.8390.8390.8390.8390.8390.83
SIFT+FV60.4752.8052.8052.8053.1051.6253.3953.3953.1052.5152.5152.8052.8052.5152.5151.3353.3953.3952.5152.5150.74
Alexnet91.4587.6187.6165.4944.2536.8791.1591.1590.5689.3887.3291.4591.4591.4589.0989.3891.4591.4591.4590.2788.20
VGG94.6994.9994.9994.9992.3384.3779.0679.0645.4332.7434.5195.2895.2894.1088.2082.0194.6994.6993.8191.7486.73
ResNet1892.6391.7491.7490.8689.3883.1991.7491.7487.9184.9680.2475.8175.8146.6134.8133.9291.1591.1589.3886.1483.19
ResNet10192.9293.2293.2292.6390.8687.6192.9292.9292.9289.9786.1493.2293.2291.1588.2083.4880.5380.5356.6450.4456.34
Graveer BW
testϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP91.5592.6492.6491.9791.7291.6392.3092.3092.0592.0591.6391.9791.9791.8091.9791.8092.1392.1391.9791.8091.63
SIFT+FV89.7989.7989.7989.7189.8790,9689.7989.7989.7989.3790,9689.8789.8789.6289.5490.8889.9689.9689.4689.5490,96
Alexnet98.5894.0694.0675.0657.3254.6498.6698.6698.6698.4997.3298.6698.6698.6698.3397.1598.6698.6698.6698.5897.49
VGG99.5899.8399.8399.6799.5099.1691.0591.0562.8545.9449.8799.5899.5898.7498.4197.9199.5899.5899.2599.0098.83
ResNet1899.8399.9299.9299.8399.6799.1699.7599.7599.4198.8397.4993.2293.2271.5559.4161.0999.8399.8399.6798.9197.82
ResNet10199.6799.7599.7599.7599.8399.7599.8399.8399.5099.2598.7499.6799.6799.5099.0898.1695.9095.9090.1385.7783.01
Gravure kleur
testϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP89.9289.6889.6889.7489.8689.8089.9289.9289.7489.8689.6289.6889.6889.7489.9889.8089.9289.9289.8689.5090.16
SIFT+FV66.9566.7766.7766.5966.8968.0966.8366.8366.5967.1968.0966.8966.6566.9568.3366.7166.7166.5366.5366.9566.95
Alexnet94.7273.5573.5525.4912.3017.2294.7894.7894.9094.4893.6494.7294.7294.6695.1494.2494.5494.5495.0294.6694,00
VGG99.4099.4699.4699.4699.2896.5279.9079.9016.0205.4606.0699.5299.5299.2299.1097.1899.4099.4099.1098,5095.98
ResNet1896.4095.9895.9896.1695.0289.1495.9295.9295.5093.8889.5049.1349.1306.8405.5810.7495.6295.6295.0292.6886.98
ResNet10199.8899.7699.7699.7699.5298.9299.7099.7099.7099.2298.4499.8299.8299.7699.4098.5692.8692.8661.9149.1954.53

4.4.2Meerdere pixelaanval

Het meervoudige pixelaanval-experiment kwam samen met de analyse dat één pixel geen beelden met hoge resolutie verstoort om de voorspelling van het model te veranderen.We experimenteren met het wijzigen van één pixel om de modellen voor de 100 geselecteerde afbeeldingen voor de gek te houden, en de resultaten geven geen scoreveranderingen aan.We hebben dus experimenteel ontdekt dat wanneer 8000-10.000 pixels, DCNN-modellen een enorme hoeveelheid verandering in hun voorspelling hebben, dus hebben we een tweede experiment ingesteld met een aanval van 10.000 pixels.We presenteren in tabel10Het aantal afbeeldingen dat zijn voorspelling verandert met het slagingspercentage en de gemiddelde posterieure waarschijnlijkheid van deze nieuwe voorspellingen in de vertrouwensrij.

We hebben opgemerkt dat DCNN door een aanzienlijke hoeveelheid van hun voorspellingen met veel vertrouwen verandert door meerdere pixels te wijzigen.SIFT+FV werd ook misleid in vijf van de zeven klassen die hetzelfde aantal afbeeldingen bereikten als DCNN -modellen met een lager vertrouwen.Op deze manier verzetten slechts twee categorieën zich tegen de aanval.Integendeel, BP was robuust voor deze aanval met vier van de zeven klassen zonder wijzigingen en de rest met een maximale fout van 4%.Merk op dat de hoeveelheid pixels die in dit experiment is gemodificeerd, de motivatie van AA niet mislukt waarin de verstoring onmerkbaar moet zijn voor de menselijke visie.Daarom was BP robuust voor deze verstoring.We illustreren als een voorbeeld;BP gegenereerde kaarten met behulp van een meervoudige pixelaanval in figuur6.Bovendien rapporteren we de gemiddelde verwerkingstijd in seconden (zie tabel10), waardoor deze aanval onhaalbaar maakt om in realtime toepassingen uit te voeren.

IconografieBPSIFT+FVAlexnetVGGResNet18ResNet101
Originele ACC.92.0088,0096,0094,0096,0092.00
Slaagkans0,0032,0032,0044,0046,0042.00
VertrouwenNA64.9685.0985.7276.3477.61
Tijd (seconden)94.22301.21138.51147.72152.37237.73
SchilderenBPSIFT+FVAlexnetVGGResNet18ResNet101
Originele ACC.10078,0094,0090,0092.0094,00
Slaagkans2,000,0054,0060,0064,0064,00
Vertrouwen51.83NA78.1197.3499.3798.06
Tijd (seconden)90.16598.12119.78122.59111.14242.58
SchilderlandschappenBPSIFT+FVAlexnetVGGResNet18ResNet101
Originele ACC.10078,0088,0088,0092.0092.00
Slaagkans2,0040,0054,0060,0064,0066,00
Vertrouwen54.0662.0475.7097.2599.2697.37
Tijd (seconden)98.83585.69141.85163.51143.62205.53
TekeningenBPSIFT+FVAlexnetVGGResNet18ResNet101
Originele ACC.88,0070,0080,0090,0086.0092.00
Slaagkans0,0038,0068,0068,0074,0078,00
VertrouwenNA66.5383.9191.9495.1194.24
Tijd (seconden)118.85462.92110.18111.48128.07220.69
BeeldhouwwerkBPSIFT+FVAlexnetVGGResNet18ResNet101
Originele ACC.86.0062.0088,0098,0096,0096,00
Slaagkans4,0060,0062.0054,0056.0054,00
Vertrouwen58.1467.6192.6598.6097.4596.93
Tijd (seconden)71.20601.53121.22130.06137.16181.14
Graveer BWBPSIFT+FVAlexnetVGGResNet18ResNet101
Originele ACC.94,0094,00100100100100
Slaagkans0,000,0040,0050,0032,0020,00
VertrouwenNANA77.6368.0771.8661.25
Tijd (seconden)88.71599.41148.90169.56152.11177.61
Gravure kleurBPSIFT+FVAlexnetVGGResNet18ResNet101
Originele ACC.94,0074,0098,0010092.00100
Slaagkans0,0060,0040,0050,0046,0022.00
VertrouwenNA55.9873.8066.1562.9665.31
Tijd (seconden)87.01600,82150.70174.51154.52186.13

4.4.3Tegenstander

We presenteren de resultaten van de tegenstanderspatch in tabel11.Dit experiment analyseert de verandering in de voorspellingen van het model door de getrainde patches van DCNN -modellen toe te voegen met 100 afbeeldingen van elke klasse op een willekeurige locatie en oriëntatie.De resultaten van de tabel11laat zien dat deze patches in de meeste experimenten op een belangrijke manier van invloed zijn op DCNN -modellen.We hebben ook ontdekt dat de patches kunnen worden overgedragen naar andere DCNN's.

Het experiment met schilderlandschappen toonde het worst-case scenario voor DCNN-modellen, waarop we een aanzienlijk overdraagbaarheidseffect tussen de modellen hebben waargenomen.We hebben opgemerkt dat VGG, ResNet18 en ResNet101 werden beïnvloed door alle patches.DCNN -modellen hebben zijn prestaties laten vallen tot ongeveer de helft van zijn oorspronkelijke nauwkeurigheid en zijn in sommige gevallen minder tot 50%.ResNet18 werd in alle afbeeldingen voor de gek gehouden met behulp van de getrainde patch.Alle andere klassen vertoonden geen soortgelijk gedrag;De patches kunnen DCNN -modellen voor de gek houden.SIFT+FV en BP daarentegen vertoonden een robuuste controle over de tegenstanders, wat bijna een onveranderlijke prestaties vertoonde.Figuur6illustreert de door BP gegenereerde kaarten met behulp van een afbeelding met de tegenstanderspatch.

IconografieOriginele ACC.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP99.0099.0099.0099.0099.00
SIFT+FV92.0089.0093,0093,0092.00
Alexnet98,0074,0097,0097,0098,00
VGG94,0091,0045,0082.0081,00
ResNet1894,0087,0090,0058,0090,00
ResNet10193,0087,0087,0078,0070,00
SchilderenOriginele ACC.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP100,00100,00100,0099.00100,00
SIFT+FV97,0098,0097,0098,0096,00
Alexnet96,0054,0094,0094,0094,00
VGG92.0071,0048,0073,0061,00
ResNet1894,0067,0076.0023.00 uur43,00
ResNet10197,0072,0072,0069.0056.00
Schilderland.Originele ACC.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP100,00100,00100,00100,00100,00
SIFT+FV87,0081,0078,0084,0081,00
Alexnet94,0024.00 uur85,0086.0077,00
VGG95,0041,0019.0048,0023.00 uur
ResNet1895,0022.0039,000,009.00 uur
ResNet10196,0043,0041,0035,0022.00
TekeningenOriginele ACC.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP91,0091,0091,0091,0091,00
SIFT+FV72,0067,0068,0069.0067,00
Alexnet94,0030,0085,0080,0073,00
VGG98,0081,0069.0074,0062.00
ResNet1896,0082.0091,0066,0079,00
ResNet10199.0088,0090,0085,0075,00
BeeldhouwwerkOriginele ACC.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP85,0085,0085,0085,0085,00
SIFT+FV95,0092.0094,0094,0095,00
Alexnet97,0032,0092.0089.0086.00
VGG97,0093,0072,0085,0085,00
ResNet1895,0092.0086.0066,0089.00
ResNet10194,0087,0089.0086.0087,00
Graveer BWOriginele ACC.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP90,0090,0091,0091,0091,00
SIFT+FV91,0094,0093,0095,0092.00
Alexnet100,0099.00100,00100,00100,00
VGG100,0099.0083,0096,0097,00
ResNet18100,00100,0096,0071,0096,00
ResNet101100,00100,00100,00100,00100,00
Gravure kleurOriginele ACC.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP93,0092.0093,0092.0092.00
SIFT+FV94,0094,0096,0095,0095,00
Alexnet97,0067,0098,0095,0093,00
VGG100,00100,0099.00100,00100,00
ResNet1898,0099.00100,0098,0099.00
ResNet101100,00100,00100,00100,00100,00

4.4.4Statistische analyse van robuustheid

In het laatste deel zien we dat verschillen tussen experimenten opvallend lijken, vooral wanneer afbeeldingen een subtiele verstoring lijden.Desalniettemin stelt statistische analyse ons in staat om meer vertrouwen te hebben op de robuustheid van de voorspellingen van elke methode.Tegenwoordig brengt de niet -parametrische statistische analyse de aandacht van onderzoekers om de prestaties te meten door een rigoureuze vergelijking tussen algoritmen, rekening houdend met onafhankelijkheid, normaliteit en hom*oscedasticiteit[[79,,80].Dergelijke procedures voeren zowel paarsgewijze als meerdere vergelijkingen uit voor analyse van meervoudige problemen.In ons geval passen we paarsgewijze statistische procedures toe om individuele vergelijkingen uit te voeren tussen het vertrouwen van elke methode, van schone en aangevallen afbeeldingen op basis van de statistische procedure beschreven in[[81].

Wanneer de resultaten van de ontworpen algoritmen voor hetzelfde probleem de eerder uitgedrukte voorwaarden hebben bereikt, is de meest voorkomende test de ANOVA.In het geval dat de distributies niet normaal zijn, moeten we een niet-parametrische test zoals Kruskal-Wallis gebruiken.Als de distributies normaal zijn, maar niet de eigenschap van hom*oscedasticiteit bereiken, is de vereiste analyse de Welch -test.De statistische tests maken vergelijkingen van de steekproefverdelingen mogelijk, het bijwonen van de vereiste voorwaarden en het toepassen van een geschikte beoordeling a posteriori om de resultaten te contrasteren.Als gevolg hiervan hebben we eerst data-normaliteit (Lilliefors, Kolmogorov-Smirnov) en hom*oscedasticiteit (Levene-test) bestudeerd;Volgens de resultaten hebben we de juiste statistische test (Kruskal-Wallis, Welch, ANOVA) toegepast om te bepalen of de verschillen significant zijn, met behulp van een p-waarde<<0,05afwezig0,05<0,05.Daarom, als het vertrouwen van de voorspellingen statistisch anders is, zal dit de afwijzing van de nulhypothese illustrerenHO𝐻𝑜Naar.Als de statistische analyse accepteertHO𝐻𝑜Naar, het zal bepalen dat het vertrouwen van de voorspellingen van het paar schone en verstoorde beelden niet significant verschillend is;Daarom kunnen we concluderen dat de methode robuust is voor de AES.

De statistische analyse van tabellen12-13laat zien dat het vertrouwen van de voorspellingen van BP niet significant verschillend is in elk experiment van de testdataset met behulp van FGSM.Dat betekent dat het vertrouwen niet wordt beïnvloed door de subtiele verstoringen die aan de afbeeldingen zijn toegevoegd.Het merendeel van de p-waarden van SIFT+FV aantoont niet significant verschillend te zijn tussen de vertrouwelijkheid van de voorspellingen.Desalniettemin toonde de analyse van alle DCNN -architecturen aan dat in de meeste gevallen de afwijzing van de nulhypotheseHO𝐻𝑜Naar.De afwijzing illustreert de schade van de AE's aan het vertrouwen van de voorspellingen van de DCNN door ze statistisch anders te maken.

Iconografie
AlexnetVGG
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP0.997430.998890.995990.99580.99580.998280.996340.995170.99370.99371
SIFT+FV0.951190.951180.808590.213740,000129580.930220.930220.734820.10472P.0663 J-06
Alexnet1.7665E-121.7665E-121.8922 J-545.2622E-731.5556 J-740.994830.994830.997020.844010.83964
VGG0.582350.582450.00870041.884E-093.1824E-323.2201E-303.2201E-303.1832E-641.3611E-1747.6365E-176
ResNet180.630620.630630,0240568.0612E-063.3087E-170.521820.521820,00035193A.2009 J-102.4186E-22
ResNet1010.62590.625990,054054KH 9926 J-05A. 5752 J -110.545010.545010.00176981.0084E-062.232E-12
Schilderen
AlexnetVGG
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP0.91360.898740.896340.859430.125570.990680.991080.783410.751450.59411
SIFT+FV0.218660.218660,000124491.6086E-241.65E-860.165020.16502A 9752 J-061.516E-31P. 6495 J-98
AlexnetA.4962 J-105A.4962 J-1050000.981060.981060.901520.475910.050199
VGG0.646220.64621P. 6649 J-142.4111E-137000000
ResNet180.97110.971110.920350.138733.8914E-1110.370650.370652.124E-251.5714E-1031.1938E-291
ResNet1010.905580.905570.373473.1411E-664.1528E-2400.353380.353383.3466E-531.3622 J-2160
Schilderlandschappen
AlexnetVGG
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP1111111111
SIFT+FV0.795050.795050.300220.0024393A.3167 J-090.795990.795990.33530.0019852A.6761 J-09
AlexnetH 9291 J-10H 9291 J-101.4342E-295.265E-33Z 3707 J-330.99050.99050.954130.952120.70978
VGG0.874450.874470.38584A.5473 J-12H 3903 J-345.0409E-295.0409E-29Kh3.0354E-371.0586E-38
ResNet180.899670.899660.73060.302111.4175E-050.687130.687130.0301981.4375E-05H 5887 J-15
ResNet1010.96710.966960.74545KH 8498 J-082.5216E-220.879010.879010.33332A.368 J-173.0898E-30
Tekeningen
AlexnetVGG
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP0.984050.984050.978760.954260.974830.987450.987450.993220.988890.97186
SIFT+FV0.678540.678540.432690.049832.6184E-060.693150.693150.466970,0643491.0753 J-05
Alexnet1.5308E-051.5308E-053.0146E-26KH 9791 J-41I 2069 J-470.929910.929890.838810.849040.0052409
VGG0.870660.870660,058863P. 9068 J-08A.7992 J-301.5939 J-201.5939 J-201.3.4676E-586.0516E-61
ResNet180,907810.907810.501430.00233665.16E-160.591030.591030.0056782I 2775 J-08P. 5421 J-26
ResNet1010.979120.979120.55583P.2526 J-061.313 J-220.790990.790990,000706224.8929 J-121.5062E-33
Beeldhouwwerk
AlexnetVGG
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP0.997720.997720.997420.997480.997010.997360.997360.997170.997020.99753
SIFT+FV0.891980.891980.46320.17140.0863230.931140.931140.52010.208710.14017
Alexnet0,000135130,000135132.0152E-208.8035E-31Z 2946 J-340.894840.894840.544230,000261611.6579 J-12
VGG0.755940.755940.0082156Kh1.6714 J-21I7774 J-13I7774 J-131.0801E-307.3611e-34A. Ik geef
ResNet180.769050.769050,053247A.3723 Y-067.1788E-180.65010.65010.00321581.3364 J-084.5108E-21
ResNet1010.831530.831530,0180176.1378E-07A.1775 J-140.730460.730460.0025386A.3318 J-073.531E-15
Graveer BW
AlexnetVGG
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP0.13140.13140.750890.72130.762810.11840.11840.699320.727180.75278
SIFT+FV0.896060.896060.92130.777750.013290.874470.874470.856280.962410,086893
AlexnetK. onderdanigK. onderdanig2.205E-116A.5771 J-171A.9344 J -1870.611080.611080.793840.666231.2529 J-07
VGG0.941460.941460.629820.0193740.0925151.7458 J-851.7458 J-85A.3367 J-2026.0154E-219A.4579 J -219
ResNet180.351220.351220.0207526.4226E-134.1326E-560.113780.113782.9188E-05Kh1.1364E-73
ResNet1010.142620.142620.705670.0010867KH 2621 J-310.45370.45370.190414.4468E-061.2934 J-39
Gravure kleur
AlexnetVGG
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP0.895910.895910.948230.934530.981860.872650.872650.921260.933540.99179
SIFT+FV0.837150.837150.73060.521090.952550.783560.783560.7844710.82826
Alexnet1.6503E-1331.6479 J-1334.924 J-2732.106E-2901.6302 J-2740.568520.568520.367710,0416841.0253E-05
VGG3.66E-323.66E-321.8892E-351.7963 J-341.0132E-1800000
ResNet181.105E-081.105E-081.8668E-094.1096E-086.1218E-061.6772 J-101.6772 J-101.7619 J-141.0486E-161.5263 J-15
ResNet1015.1941E-165.1941E-161.1333 J -186.1089E-255.416E-428.2181E-238.2181E-231.968 J-413.066E-70A.3115 J-107

Iconografie
ResnetResNet101
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP0.997670.996720.997390.995850.995850.999920.995930.998250.995890.99589
SIFT+FV0.954570.954570.785010.0987961.296E-050.92450.924490.712440.06041A.3283 J-06
Alexnet0.997760.997760.962990.749610.183280.99030.99030.980650.794780.62045
VGG0.450190.450181.3824 J-057.6022E-17A.0.607660.607680.00206853.2656E-096.6815E-28
ResNet182.8465E-352.8465E-351.1.0059E-1611.2666e-660,486180,486260,00059331.195E-08P. 7675 J-18
ResNet1010.369790.369791.161E-05Z 3498 J-142.6481E-225.2645E-315.2645E-311.H 7789 J-617.2518E-59
Schilderen
ResnetResNet101
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP0.849870.782680.549290.992930.99370.737590.947540.877690.886850.83682
SIFT+FV0.156840.156851.1729E-06P.235 J-344.2265 J-1020.14480.14484.1104E-071.6025E-346.9011e-99
Alexnet0.975370.975380.838840,00022210,0564760.984990.985010.86210.399270.11822
VGG1.5516E-061.5524 J-061.4289E-581.8098E-2370Z 3796 J-06Z 3735 J-065.48E-501.1918E-2220
ResNet1800000P.7705 J-05P. 7674 J-053.6504E-282.1311E-1079.0869E-291
ResNet1010.202630.202667.6609E-701.041E-267000000
Schilderlandschappen
ResnetResNet101
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP1111111111
SIFT+FV0.810730.810720.310410.00132929.4406E-100.795440.795440.276430.00116793.2551E-09
Alexnet0.976980.976990.936790.926710.665990.994580.99460.973210.973550.81807
VGG0.716430.716434.7994 J-051.6994E-174. LINERLY0.737090.737090,000214444.9845 J-168.8656E-38
ResNet181.3222 J -241.3435 J-241.8235E-345.3646E-34A B0,606160,606160,0218852.1956e-051.1705e-16
ResNet1010.831540.831541.4205E-065.6908E-22KH. 671 J-338.0509E-298.0509E-29H9.0441E-38KH.
Tekeningen
ResnetResNet101
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP0.986460.986460.988530.964030.972520.995390.995390.995440.980310.98827
SIFT+FV0.695450.695440.454850.0520224.3891 J-060.687910.687910.430340,0398342.482E-06
Alexnet0.918350.918350.865390.770070.00135480.92210.922080.868830.943470.29188
VGG0.614630.614630,000642092.228E-131.8494E-350.58060.580520.00613231.4804E-10KH.
ResNet181.7101E-241.7101E-241.9766E-511.4251E-541. Oproep0.500310.500280.007141.1845E-06A. 6572 J-20
ResNet1010.593660.593660,00010094.6116E-121.5527 J-344.7426E-304.7426E-30A.8037 J-541.3584E-57P. 9703 J-60
Beeldhouwwerk
ResnetResNet101
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP0.99750.99750.997020.996930.99690.996590.996590.996860.996620.99609
SIFT+FV0.912460.912450.458420.194180.238470.913030.913030.408990.119170.0022884
Alexnet0.899150.899110.570690,000295382.4554E-120.928070.928070.638640.00128971.0607E-10
VGG0.714950.714950,000259634.4615E-101.6644E-230.835680.835680.00623751.065E-06Z 4707 J-20
ResNet185.4653E-135.4653E-131.885E-26AH.2.1562E-320.80160.80160,013852.2828E-061.1366E-17
ResNet1010,638090,638090,00097214A.3315 J-091.5158E-177. 4724 A 117. 4724 A 111.7682 J -19Z 4807 J -211.7814 J-25
Graveer BW
ResnetResNet101
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP0.621390.621390.762790.727540.730810.235250.235250.736970.757430.76744
SIFT+FV0.885750.885750.85360.958280.143820.869030.869040.880720.927910.065097
Alexnet0.882550.882550.829070.121035.201E-140.631770.631780.850280.517360.026006
VGG0.35490.35490.0111171.113E-111.2312 J-460.613020.613110.147931.5966e-081.9818e-32
ResNet182.0619e-812.0619E-81Z 5802 J -191A.4.2645E-2180.108820.108820,00011229.641E-235.6127E-80
ResNet1010.57920.57920.00928075.08e-145.8058E-774.4317 J-564.4223E-561.1988E-1191.3737 J-1523.8698E-193
Testen VS.ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32ϵ2Italiek-ϵ2\ epsilon 2ϵ4Italiek-ϵ4\ epsilon 4ϵ8Italiek-ϵ8\ epsilon 8ϵ16Italiek-ϵ16\ epsilon 16ϵ32Italiek-ϵ32\ epsilon 32
BP0.965530.965530.933420.997330.997210.962750.962750.91690.980990.83034
SIFT+FV0.890230.890230.678720.669670.89030.890750.890750.729480.518950.8264
Alexnet0.610610.610640.42120.0954210.00145810.566980.567030.333010.0171581.6441E-06
VGG8.8075E-368.8007E-361.3014E-447.2256E-547.1826E-591.3175 J-401.323 J-406.4181E-581.2544E-791.8917 J-105
ResNet183.076E-3073.076E-307000A. 907 J -11A. 907 J -115.3445E-161.6623 J-171.5303 Y-14
ResNet1014.A-204.1976 J-204.9361 J-324.2834e-526.6939e-892.6025e-3102.6206e-310000

Hetzelfde gedrag wordt gezien in de statistische analyse van tabel14, die het vertrouwen van de voorspellingen van de methode voor de tegenstanderspatch toont.De studie toonde dezelfde afwijzing van de nulhypotheseHO𝐻𝑜Naarvan alle DCNN -architecturen in een aanzienlijk deel van de experimenten voor alle klassen.Omgekeerd accepteerde BP de nulhypotheseHO𝐻𝑜Naarin elk experiment.SIFT+FV vertoonde vergelijkbaar gedrag met BP, maar de sculptuurklasse en de VGG -patch verkregen het vertrouwen van een significant verschillende voorspellingen.

Iconografie
Testen VS.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP0.996080.990190.998120.99901
SIFT+FV0.601310.898370.616820.97909
Alexnet7.1039E-200.795670.469150.56209
VGG0,00037431. FamilieP. 9987 J-071.0847E-07
ResNet18A. 5542 J-050,000403132.092E-180,00029613
ResNet1010.00105078.4448E-05P. 9575 J-081.358 J-12
Schilderen
Testen VS.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP1111
SIFT+FV0.544970.748370.554320.82595
Alexnet1.3914 J-27A.7344 J-074.1336 J-07H 5744 J-12
VGG4.5007 J-163.0804E-225.2464E-143.4408E-20
ResNet181.2746 J -191.1991E-15Dhr.4.9202 J-26
ResNet1013.855E-201.9447 J-20KH. 876 J-18P
Schilderlandschappen
Testen VS.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP1111
SIFT+FV0.711060.354420.761260.32247
AlexnetA.3132 J-271.4598E-081.3614E-064.8304E-13
VGG3.4926E-25KH 7961 J-301.6104E-223.0764E-29
ResNet181.1.3091 J-241.1945E-335.1204E-32
ResNet1011.868E-275.565E-27A.92013 J-281.1313 J-30
Tekeningen
Testen VS.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP1111
SIFT+FV0.492340.247920.403360.20665
Alexnet2.0788E-272.61E-052.1405E-087.0741 C-12
VGGA.9051 J-152.6781E-201.1136E-18A.3552 J -21
ResNet185.2286e-15A.8956 J-091.3091 J-245.042E-17
ResNet1013.8469E-17P. 1359 J-12KH 7602 J-141.0681E-22
Beeldhouwwerk
Testen VS.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP0.995440.997010.998230.99557
SIFT+FV0,0932280,0480750.146210.49341
AlexnetP. 0533 Y-281.6758 Y-061.6128E-08Z 3985 J-08
VGGI2478 J-064.5278 J -191.1145E-103.8384E-09
ResNet189.011e-065.6851E-073.0015E-20I7596 J-08
ResNet101P.1949 J-070,00045029A.9946 J-071.2838E-08
Graveer BW
Testen VS.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP0.840320.92920.836950.79371
SIFT+FV0.178990.686460.635490.75774
Alexnet6.8616E-160,332030.135460.80088
VGGA.7464 J-15Ihsa’i1.1879E-131.0857E-15
ResNet184.2622E-241.3125 J-21KH 7495 J-32I 0573 Y-26
ResNet1011.5343 J-071.7745 J-104.6019E-144.6746 J-23
Gravure kleur
Testen VS.Alexnet PatchVGG -patchResNet18 -patchResNet101 -patch
BP0.819870.969040,820550.81363
SIFT+FV0.51466111
Alexnet4.7445E-150.421950.64540.32844
VGG0,00057199Kh0.114520,000143
ResNet180,000124990.018380,000420320.31804
ResNet1010.338610.294631.2204E-058.898E-10

5Conclusie

Robuustheid tegen AA moet de primaire zorg zijn wanneer het een automatisch herkenningssysteem ontwikkelt.Dus vanaf nu mogen de prestaties van een classificator niet alleen worden gericht op de nauwkeurigheid, maar ook op robuustheid voor AAS.In dit werk presenteren we een vergelijkende studie voor AMC onderworpen aan AA.We vergelijken verschillende methoden om de prestaties en hun betrouwbaarheid te analyseren om een ​​klasse te voorspellen met behulp van tegenstanders.We hebben zes modellen geselecteerd met behulp van drie van de belangrijkste benaderingen voor beeldclassificatie: 1) Handgemaakte functiesbenadering (SIFT+FV), 2) Deep genetische programmeerbenadering (BP) en 3) DCNN -benadering (AlexNet, VGG, ResNet18 en ResNet101).De vergelijkende studie bestaat uit het analyseren van drie verschillende aanvallen.Ten eerste, de impact en overdraagbaarheid van de directe dreiging, gezien de witte doos die niet is gerichte aanval - FGSM.Deze verstoring voegt een subtiele textuur toe aan het kunstwerk, wat een misleidende voorspelling kan veroorzaken.Ten tweede, zoek een set lokalisatie- en pixelwaarden om het kunstwerk te wijzigen om de classificator voor de gek te houden met behulp van een zwarte doos ongesteld aanval -multiple pixelaanval.Pas ten slotte vooraf op berekende patches - Assarial Patch - Robust toe op transformaties die zich willekeurig in het kunstwerk bevinden om een ​​gerichte klasse te voorspellen.

In die zin heeft deze studie aangetoond dat AA een ernstige bedreiging is voor de prestaties van DCNN.Het gebruik van FGSM toonde aan dat als de aanvaller het model kent, het de DCNN zijn prestaties kan laten verlagen tot minder dan 20% van zijn oorspronkelijke score.Bovendien hebben we het overdraagbaarheidseffect tussen DCNN -modellen bewezen, wat niet ernstig is voor de binaire classificatie, maar het kan tot 20% van de prestaties verminderen.Aan de andere kant werd SIFT+FV ook getroffen door sommige klassen, maar door een klein bedrag.De toegevoegde textuur veroorzaakt door de FGSM leidde echter tot een afname van zijn prestaties op een significante manier wanneer het algoritme werd getest, met bemoedigende resultaten maar niet geschikt om te concurreren met DCNN's in de testfase.Ten slotte vertoont BP vergelijkbare prestaties (efficiëntie) als DCNN in zowel validatie- als testfasen.Het heeft een bijna onmerkbare variant over de nauwkeurigheid van deze verstoringen die geen directe overdraagbaarheid van andere modellen bewijzen.Figuren5-6kan worden waargenomen de output van elke fase van BP van schoon en AE's met bijna geen variatie op de resultaten.

De studie over één pixelaanval bevestigt het slechte ontwerp van dit type aanval vanwege een minimaal scenario dat is bedacht met een inputafbeelding van grootte32×32323232 \ maal 32pixels.We concluderen dat het een uitdaging is om meerdere pixelaanvallen op real-world omstandigheden toe te passen.Aan de ene kant, wanneer we zich uitstrekken tot meerdere pixels, verliest de verstoring de intentie van de aanval om onmerkbaar te zijn voor de menselijke visie, en niet te vergeten de enorme hoeveelheid verwerkingstijd.Aan de andere kant toont BP het uitdagend om deze aanvallen te mislukken, zelfs door vijf keer het aantal pixels per AA te verhogen in vergelijking met SIFT+FV- en DCNN -modellen, die met succes voor de gek werden gehouden.Ten slotte toonde de tegenstander van de tegenstander aan dat een vooraf berekende verstoring in een willekeurige locatie en oriëntatie in het kunstwerk DCNN -modellen met uitstekende overdraagbaarheid daartussen voor de gek kon houden;Ondertussen blijven BP en SIFT+FV in hun oorspronkelijke score.Het is opmerkelijk dat de BP -robuustheid voor de meervoudige pixelaanval en de tegenstanderspatch.Deze twee aanvallen zijn echter harde storingen en BP bleef stabiel in zijn prestaties, wat leidde tot de betrouwbaarheid van BP's voorspellingen in geen gevallen van menselijke toezicht.

De statistische analyse van het vertrouwen van de voorspellingen ondersteunt de studie van robuustheid door de verandering in de posterieure waarschijnlijkheid te illustreren als aanvulling op de resultaten vanuit het standpunt van de nauwkeurigheid.Op deze manier heeft BP aangetoond dat het niet significant verschillende voorspellingen heeft in vergelijking met DCNN -modellen, die in de meeste gevallen de afwijzing van de nulhypothese aantoondenHO𝐻𝑜Naar.Omgekeerd verkreeg SIFT+FV goede resultaten, waarbij de meeste test scoren geen significant verschil in het vertrouwen van de voorspellingen.

Concluderend is de categorisatie van kunstmedia een complex probleem waarin het moeilijk is om de prestaties van DCNN te overtreffen.Toch heeft BP vergelijkbare resultaten en is robuust voor deze tegenstanders zonder directe overdraagbaarheid van dergelijke verstoringen naar het model.Aan de andere kant blijkt SIFT+FV robuust te zijn voor een beperkt aantal experimenten met matige resultaten.BP ontstaat dus als een alternatief voorstel van een kunstmedia -classificator zonder de kwetsbaarheden van AA.Bovendien maakt het gebruik van de symbolische representaties en bevat het regels van expertsystemen in een hiërarchische structuur om het AMC -probleem op te lossen.Ten slotte opent BP de mogelijkheid om in elk van de fasen uit te leggen, in tegenstelling tot DCNN, een belangrijk onderzoeksgebied om precies de innerlijke werking van het model te kennen.

Referenties

  • [1]S.Russell, P.Norvig, kunstmatige intelligentie: een moderne aanpak, Prentice Hall, 2020.
  • [2]R.Szeliski, Computer Vision: Algoritmen and Applications, Springer, 2020.
  • [3]G.OLAGUE, Evolutionair Computer Vision: The First Footprints, Springer, 2016.
  • [4]A.DARWISH, A.HASSANIEN, S.DAS, Een onderzoek naar zwerm en evolutionaire computergerechten voor Deep Learning, Artificial Intelligence Review 53 (2019) 1767–1812.
  • [5]P.Druzhkov, V.Kustikova, een onderzoek naar de diepe leermethoden en softwaretools voor beeldclassificatie en objectdetectie, patroonherkenning en imaganalyse 26 (2016) 9-15.
  • [6]B.Zhao, J.Feng, X.Wu, S.yan, een onderzoek naar de diepe leer-gebaseerde Fine-korrelige classificatie en semantische segmentatie, International Journal ofautomation and Computing 14 (2017) 119–135.
  • [7]Y.BI, M.Zhang, B.Xue, genetische programmering voor automatische globale en lokale Feature -extractie naar beeldclassificatie, 2018 IEEE Congress Onevolutionary Computation (CEC) (2018) 1–8.
  • [8]S.R.Price, D.Anderson, S.Price, Goofed: extraheren geavanceerde functies Forimage -classificatie via verbeterde genetische programmering, 2019 IEEE Congress Onevolutionary Computation (CEC) (2019) 1596–1603.
  • [9]M.IQBAL, H.AL-SAHAF, B.XUE, M.ZHANG, Genetische programmering met transferLearning voor textuurbeeldclassificatie, Soft Computing (2019) 1–13.
  • [10]Y.BI, B.XUE, M.ZHANG, een effectieve functie -leerbenadering met behulp van genetische programmering met beeldbeschrijvingen voor beeldclassificatie [ResearchFrontier], IEEE Computational Intelligence Magazine 15 (2020) 65–77.
  • [11]T.NAKANE, B.NARANCHIMEG, H.SUN, X.LU, T.AKASHI, C.ZHANG, TOEPASSING VAN EVOLUTIONAIRE EN SWARM Optimalisatie in computervisie: een literatuuronderzoek, IPSJ -transacties op computer vision en applicaties 12 (2020) 1–34.
  • [12]Y.Sun, B.Xue, M.Zhang, G.G.Yen, evoluerende diepe convolutionele neuralnetworks voor beeldclassificatie, IEEE -transacties op evolutionaire competatie 24 (2) (2020) 394–407.Doi: 10.1109/tevc.2019.2916183.
  • [13]F.E.F.Junior, G.Yen, deeltjeszwermoptimalisatie van diepe neurale netwerksarchitecturen voor beeldclassificatie, Swarm Evol.Comput.49 (2019) 62–74.
  • [14]D.E. Hernández, E.Clemente, G.Olague, JL Briseño, Evolutionaire multi-objectieve visuele cortex voor objectclassificatie in natuurlijke beelden, Journal of Computational Science 17 (2016) 216 - 233.
  • [15]D.E.Hernández, G.Olague, B.Hernández, E.Clemente, Cuda-gebaseerde parallelisatie van een bio-geïnspireerd model voor snelle objectclassificatie, neurale computing en toepassingen 30 (2017) 3007–3018.
  • [16]G.OLAGUE, E.CLEMENTE, D.E.Hernández, A.Barrera, M.Chan-Lley, S.Bakshi, kunstmatige visuele cortex en willekeurige zoekopdracht naar ObjectCategorization, IEEE Access 7 (2019) 54054–54072.
  • [17]M.Chan-Lley, G.OLAGUE, Categorisatie van gedigitaliseerde kunstwerken door media met brainprogrammering., Applied Optics 59 14 (2020) 4437–4447.
  • [18]G.OLAGUE, D.E.Hernández, E.Clemente, M.Chan-Lley, evoluerende headtrackroutines met hersenprogrammering, IEEE Access 6 (2018) 26254-26270.
  • [19]G.OLAGUE, D.E.Hernández, P.Llamas, E.Clemente, J.L. Briseño, Brain Programming als een nieuwe strategie om visuele routines te creëren voor objecttracking, multimedia -tools en -toepassingen 78 (5) (2019) 5881-5918.doi: 10.1007/s11042-018-6634-9.
  • [20]N.akhtar, A.Mian, dreiging van tegenstanders op diep leren in Computervision: A Survey, IEEE Access 6 (2018) 14410–14430.
  • [21]Y.LI, Y.Wang, verdediging tegen tegenstanders in Deep Learning, Applieds Sciences 9 (1) (2018) 76.doi: 10.3390/app9010076.
  • [22]M.Ozdag, tegenstanders en verdedigingen tegen diepe neurale netwerken: Asurvey, Procedia Computer Science 140 (2018) 152-161, Cyber ​​PhysicalSystems en Deep Learning Chicago, Illinois 5-7 november 2018.doi:10.1016/j.procs.2018.10.315.
  • [23]T.Chen, J.Liu, Y.Xiang, W.Niu, E.Tong, Z.Han, Vijandige aanval en verdediging in versterking van het leren vanuit een AI-beveiligingsvisie, Cybersecurity 2(1)(2019) 11.doi:10.1186/s42400-019-0027-x.
  • [24]H.XU, Y.MA, H.-C.Liu, D.Deb, H.Liu, J.-L.Tang, a.k.Jain, tegenstanders en verdedigingen in afbeeldingen, grafieken en tekst: een review, International Journal of Automation and Computing 17 (2) (2020) 151–178.doi: 10.1007/s11633-019-1211-x.
  • [25]K.Ren, T.Zheng, Z.Qin, X.Liu, tegenstanders en verdedigingen in Deeplarning, Engineering 6 (3) (2020) 346 - 360.Doi: 10.1016/j..
  • [26]I.J.Goodfellow, J.Shlens, C.Szedy, uitleg en benutten van adversarialexamples, in: 3rd International Conference on Learning Representations, ICLR 2015, Conference Track Proceedings, 2015, p.11.
  • [27]J.Luengo, S.García, F.Hrrera, een onderzoek naar het gebruik van statistische tests voor experimenten met neurale netwerken: analyse van parametrische testomstandigheden en niet-parametrische tests, expertsystemen met toepassingen 36 (4) (2009) 7798– 7808.doi: https: //doi.org/10.1016/j.eswa.2008.11.041.
  • [28]G.OLAGUE, G.IBARRA-VAZQUEZ, M.CHAN-LEY, C.PUENTE, C.Soubervielle-Montalvo, A.Martinez, een diepe genetische programmeermethodologie voor kunst mediaclassificatie robuust voor tegenstanders, in: 15e Internationalsymposium op visuele visuele visualComputing, ISVC 2020, Vol.12509, Lecture Notes Incomputer Science, Springer, 2020, pp. 1–12.
  • [29]Z.Falomir, L.Museros, I.Sanz, L.Gonzalez-Abril, categoriseren van schilderijen Inart Styles op basis van kwalitatieve kleurbeschrijvingen, kwantitatieve GlobalFeatures and Machine Learning (Qart-Learn), Expert Systems with Applications97 (2018) 83-94.
  • [30]L.Kong, J.Lv, M.Li, H.Zhang, het extraheren van generieke kenmerken van artistiek styleVia Deep Convolutional Neural Network, In: International Conference on Video and Image Processing, ICVIP 2017, 2017, p.119–123.doi: 10.1145/3177404.3177421.
  • [31]A.Elgammal, M.Mazzone, B.Liu, D.-E. Kim, M.Elhoseiny, De vorm van kunstgeschiedenis in de ogen van de machine, in: 32e AAAI-conferentie over kunstmatige intelligentie, 2018.
  • [32]D.Keren, Schilderidentificatie met behulp van lokale kenmerken en naïeve bayes, in: Objectherkenning ondersteund door gebruikersinteractie voor servicerobots, Vol.2,2002, pp. 474–477 vol.2.doi:10.1109/ICPR.2002.1048341.
  • [33]J.LI, J.Z.Wang, het bestuderen van digitale beelden van oude schilderijen door mengsels ofstochastische modellen, IEEE -transacties op beeldverwerking 13 (3) (2004) 340–353.
  • [34]R.S.Arora, A.Engammal, naar geautomatiseerde classificatie van fijne kunstschilderstijl: een vergelijkende studie, in: 21st International Conference on PatternRecognition (ICPR), IEEE, 2012, pp. 3541–3544.
  • [35]P.Rosado, Computer Vision -modellen om kunstcollecties te categoriseren volgens de visuele inhoud: een nieuwe benadering van de abstracte kunst van Antoni Tàpies, Leonardo 52 (2019) 255–260.
  • [36]S.Karayev, M.Trentacoste, H.Han, A.Agarwala, T.Darrell, A.Hertzmann, H.Winnemöller, Herkenning van beeldstijl, in: British Machine VisionConference, 2014.Twee: 10.5244/c.28.122.
  • [37]Y.Bar, N.Levy, L.Wolf, Classificatie van artistieke stijlen met behulp van gebinariseerde Features afgeleid van een diep neuraal netwerk, IN: European Conference OnComputer Vision (ECCV), Springer, 2014, pp. 71–84.
  • [38]N.Van Noord, E.Hendriks, E.Postma, Naar de ontdekking van de stijl van de kunstenaar: leren om artiesten te herkennen door hun kunstwerken, IEEE Signal ProcessingMagazine 32 (2015) 46–54.
  • [39]E.Cetinic, S.Grgic, Genre Classification of Paintings, In: Internationalsymposium Elmar, 2016, pp. 201–204.Twee: 10.1109/elmar.2016.7731786.
  • [40]B.Seguin, C.Striolo, I.diLenardo, F.Kaplan, Visuele link ophalen in een database met schilderijen, in: European Conference on Computer Vision (ECCV), 2016, pp. 201–204.
  • [41]T.Sun, Y.Wang, J.Yang, X.Hu, Convolutie neurale netwerken met twee routes voor beeldstijlherkenning, IEEE Transactions on Image Processing 26 (2017) 4102–4113.
  • [42]A.Elgammal, Y.Kang, M.D. Leeuw, Picasso, matisse of nep? geautomatiseerde analyse van tekeningen op streekniveau voor attributie en authenticatie, in: 32e AAAI-conferentie over kunstmatige intelligentie, 2018.
  • [43]E.Cetinic, T.Lipic, S.Grgic, Fine-tuning convolutionele neurale netwerken voor classificatie van beeldende kunst, Expert Systems With Applications 114 (2018) 107–118.
  • [44]H.YANG, K.min, Classificatie van basisartistieke media op basis van een diepconvolutionele benadering, de Visual Computer 36 (3) (2020) 559-578.
  • [45]C.SESEDY, W.ZAREMBA, I.SUTSKEVER, J.BRUNA, D.ERHAN, I.J.Goodfellow, R.Fergus, Intrigerende eigenschappen van neurale netwerken, in: 2e InternationalConference on Learning Representations, ICLR 2014, Conference TrackProceedings, 2014, p.10.
  • [46]S.Zheng, Y. Song, T.Leung, I.Goodfellow, het verbeteren van de robuustheid van deep neurale netwerken via stabiliteitstraining, in: IEEE Conference on Computervision and Pattern Recognition (CVPR), 2016, pp. 4480–4488.
  • [47]D.Su, H.Zhang, H.chen, J.Yi, P.-Y.Chen, Y.Gao, is robuustheid de kosten van nauwkeurigheid?- Een uitgebreid onderzoek naar de robuustheid van 18 diepe imageclassificatiemodellen, in: V.Ferrari, M.Hebert, C.Sminchisescu, Y.weiss (eds.), European Conference on Computer Vision (ECCV), Springer InternationalPublishing, Cham, 2018, pp. 644–661.
  • [48]J.Su, D.Vargas, K.Sakurai, één pixelaanval voor het voor de gek houden van diepe neurale netwerken, IEEE -transacties op evolutionaire berekening 23 (2019) 828–841.
  • [49]S.-M.Moosavi-Dezfooli, A.Fawzi, O.Fawzi, P.Frossard, Universal Contersarialperturbations, In: IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017, pp. 1765–1773.
  • [50]T.B.Brown, D.Mané, A.Roy, M.abadi, J.Gilmer, Adversarial Patch, 31stconferentie op neurale informatieverwerkingssystemen, NIPS (2017) 6.
  • [51]Y.Song, T.Kim, S.NowoZin, S.ermon, N.Kushman, PixeldDefend: LeveragingGenerative Models om te begrijpen en te verdedigen tegen tegenstanders, in: 6e Internationale Conferentie over leervertegenwoordigingen, ICLR 2018, Conference Track Procedure, 2018,P.20.
  • [52]J.-Y.Baek, Y.-S.Yoo, S.-H.BAE, tegenstanders leren met kennis van imageclassificatie voor het verbeteren van GANS, IEEE Access 7 (2019) 56591–56605.
  • [53]S.Gu, L.Rigazio, Towards deep neural network architectures robuust tot vijandige voorbeelden, in: 3rd International Conference on LearningRepresentations, ICLR, Conference Track Proceedings, 2015, p.9.
  • [54]ALS. Ross, F.Doshi-Velez, Verbetering van de vijandige robuustheid en interpreteerbaarheid van diepe neurale netwerken door hun invoergradiënten te regulariseren, in: 32e AAAI-conferentie over kunstmatige intelligentie, 2018.
  • [55]N.Papernot, P.McDaniel, X.Wu, S.Jha, A.Swami, Distillatie als verdediging tegen vijandige verstoringen tegen diepe neurale netwerken, in: 2016 IEEESymposium on Security and Privacy (SP), IEEE, 2016, pp. 582 –597.
  • [56]D.Meng, H.Chen, Magnet: een tweeledige verdediging tegen vijandige voorbeelden, in: ACM SIGSAC Conference on Computer and Communications Security, 2017, pp.135–147.
  • [57]N.Akhtar, J.Liu, A.Mian, Verdediging tegen universele vijandige verstoringen, in: IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 3389–3398.
  • [58]H.Zhang, H.chen, Z.Song, D.Boning, I.S.Dhillon, C.-J.Hsieh, Thelimitations of Adversarial Training en de Blind-Spot Attack, In: 7thinternational Conference on Learning Representations, ICLR 2019, ConferenceTrack Proceedings, 2019.
  • [59]J.Sánchez, F.perronnin, T.Mensink, J.verbeek, Image Classificatie met de Fisher Vector: Theory and Practice, International Journal of Computervision 105 (3) (2013) 222–245.
  • [60]D.M.Titterington, A.F. Smith, U.E.Makov, Statistische analyse van FinItemixture Distributions, Wiley, 1985.
  • [61]R.M.Gray, D.L.Neuhoff, kwantisatie, IEEE -transacties op InformationTheory 44 (6) (1998) 2325–2383.
  • [62]Q.Zhang, B.LI, Discriminative K-SVD voor woordenboek leren in facerecognitie, in: IEEE Conference on Computer Vision and Pattern Recognition (CVPR), IEEE, 2010, pp. 2691–2698.
  • [63]Z.Jiang, Z.lin, L.S.Davis, leer een discriminerend woordenboek voor sparsecodering via label Consistent K-SVD, In: IEEE Conference on Computer Vision and Pattern Recognition (CVPR), IEEE, 2011, pp. 1697-1704.
  • [64]A.Coates, A.NG, H.lee, een analyse van single-layer netwerken in UnsuperViredFeature Learning, in: 14th International Conference on ArtificialIntelligence and Statistics, 2011, pp. 215–223.
  • [65]K.Simonyan, A.Vedaldi, A.Zisserman, Deep Fisher Networks for Gary-Scaleimage Classificatie, in: Advances in Neural Information Processing Systems, 2013, pp. 163–171.
  • [66]Y.HE, K.Kavukcuoglu, Y.Wang, A.Szlam, Y.Qi, zonder toezicht geleerd leren door Deep Sparse Coding, In: SIAM International Conference on Data Mining, Siam, 2014, pp. 902–910.
  • [67]Y.LeCun, B.Boser, JS Denker, D.Henderson, RE Howard, W.Hubbard, LDJackel, Backpropagation toegepast op handgeschreven postcodeherkenning, NeuralComputation 1(4) (1989) 541–551.
  • [68]A.Krizhevsky, I.Sutskever, G.E. Hinton, Imagenet-classificatie met diepe convolutionele neurale netwerken, in: Advances in Neural Information ProcessingSystems, 2012, pp. 1097–1105.
  • [69]K.Simonyan, A.Zisserman, Zeer diepe convolutionele netwerken voor grootschalige beeldherkenning, 3e Internationale Conferentie over Leerrepresentaties, ICLR 2015, Conference Track Proceedings (2015) 14.
  • [70]K.He, X.Zhang, S.Ren, J.Sun, Diep resterend leren voor beeldherkenning, in: IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016,pp. 770-778.
  • [71]R.Poli, W.Langdon, N.Mcphee, A Field Guide to Genetic Programming, 2008.
  • [72]BEN.Treisman, G.Gelade, A Feature-Integration Theory of Attention, Cognitive Psychology 12 (1) (1980) 97–136.doi: 10.1016/0010-0285 (80) 90005-5.
  • [73]M.A. Goodale, A.Milner,Afzonderlijke vestige paden voor perceptie en actie, Trends in Neurosciences 15 (1) (1992) 20 - 25.doi: https: //doi.org/10.1016/0166-2236 (92) 90344-8.
    Urlhttp://www.sciencedirect.com/science/article/pii/0166223692903448
  • [74]C.Koch, S.Ullman, verschuift in selectieve visuele aandacht: naar het onderonderlying neurale circuits., Human Neurobiology 4 4 (1985) 219–27.
  • [75]K.f*ckushima, Neocognitron: een zelforganiserend neuraal netwerkmodel voor amchanisme van patroonherkenning onaangetast door verschuiving in positie, BiologicalCybernetics 36 (1980) 193–202.
  • [76]M.RieSsenhuber, T.Poggio, Hiërarchische modellen van objectherkenning incortex, Nature Neuroscience 2 (1999) 1019-1025.
  • [77]A.Kurakin, I.J. Goodfellow, S.Bengio, Adversarial machine learning at scale, 5th International Conference on Learning Representations, ICLR 2017, Conference Track Proceedings (2017) 17.
  • [78]S.Das, P.N. Suganthan, Differentiële evolutie: een overzicht van de state-of-the-art, IEEE Transactions on Evolutionary Computation 15(1) (2010) 4–31.
  • [79]J.Derrac, S.García, D.Molina, F.Herrera, Een praktische tutorial over het gebruik van niet-parametrische statistische tests als methodologie voor het vergelijken van algoritmen voor evolutionaire intelligentie en zwermintelligentie, Swarm Evol. Computer. 1 (2011) 3–18.
  • [80]S.García, A.Fernández, J.Luengo, F.Herrera, Een onderzoek naar statistische technieken en prestatiemaatstaven voor op genetica gebaseerd machinaal leren: nauwkeurigheid en interpreteerbaarheid, Soft Computing 13 (2009) 959–977.
  • [81]F.F.De Shoe, G.Olague, D.Lanza, O.F.Chavezal, W.Banzhaf, Edoodman, J.Mendez-Clavijo, A.Martínez, Time and Individual Duration in GeneticPrograming, IEEE ACESS 8 (2020) 38692–38713.
Hersenprogrammering is immuun voor tegenstanders: naar een nauwkeurige en robuuste beeldclassificatie met behulp van symbolisch leren (2024)
Top Articles
Latest Posts
Article information

Author: Terence Hammes MD

Last Updated:

Views: 5816

Rating: 4.9 / 5 (49 voted)

Reviews: 80% of readers found this page helpful

Author information

Name: Terence Hammes MD

Birthday: 1992-04-11

Address: Suite 408 9446 Mercy Mews, West Roxie, CT 04904

Phone: +50312511349175

Job: Product Consulting Liaison

Hobby: Jogging, Motor sports, Nordic skating, Jigsaw puzzles, Bird watching, Nordic skating, Sculpting

Introduction: My name is Terence Hammes MD, I am a inexpensive, energetic, jolly, faithful, cheerful, proud, rich person who loves writing and wants to share my knowledge and understanding with you.