Literatur zur DNN-Verifizierung und -Tests

Für diejenigen von euch die Interesse an Deep Neural Networks haben, diese Literatur über DNN-Verifizierung und -Tests ist bestimmt sehr hilfreich. Viel Spaß beim Lesen!

DNN-Verifizierung und -Tests: Allgemeine AI-Sicherheitsprobleme

Titel Verknüpfung
Konkrete Probleme in der KI-Sicherheit Verknüpfung
Eine Analyse von ISO 26262: Sicheres maschinelles Lernen in Automotive-Software Verknüpfung
In Richtung eines Rahmens für hoch automatisierte Fahrzeugsicherheitsvalidierung Verknüpfung
Taktisches Sicherheitsdenken. Ein Fall für autonome Fahrzeuge Verknüpfung
Der Stand der Lösungen für die Sicherheit autonomer Systeme Verknüpfung
Nachdenken über die Sicherheit von lernfähigen Komponenten in autonomen Cyber-physischen Systemen Verknüpfung
Planung und Entscheidungsfindung für autonome Fahrzeuge Verknüpfung
Simulationsbasierte Testgenerierung für autonome Fahrzeuge mit maschinellen Lernkomponenten Verknüpfung

DNN-Verifizierung und -Tests: Angreifen von Feedforward-DNNs

Titel Verknüpfung Kommentar
Erklären und Nutzen von kontradiktorischen Beispielen Verknüpfung
DeepFool: eine einfache und genaue Methode, um tiefe neuronale Netzwerke zu täuschen Verknüpfung
Die Grenzen des Deep Learning in kontradiktorischen Einstellungen Verknüpfung Euro S & P 2016
Tiefe neuronale Netze lassen sich leicht täuschen: Hohe Zuverlässigkeitsvorhersagen für nicht erkennbare Bilder Verknüpfung
Auf dem Weg zur Robustheit neuronaler Netzwerke Verknüpfung S & P2017
Widersprüchliche Beispiele in der physischen Welt Verknüpfung
Universal adversarial Perturbations Verknüpfung
Übertragbarkeit im maschinellen Lernen: Von Phänomenen zu Black-Box-Attacken mit adversarischem Muster Verknüpfung
Praktische Black-Box-Angriffe gegen maschinelles Lernen Verknüpfung
Robuste Physical-World Angriffe auf Deep Learning-Modelle Verknüpfung
KEIN ANGST BEACHTEN ÜBER VERGLEICHSBEISPIELE BEI ​​DER OBJEKTERKENNUNG IN AUTONOMEN Vehikeln Verknüpfung
Gegnerische Attacken mit Schwung ankurbeln Verknüpfung
Kunst der singulären Vektoren und universellen kontradiktorischen Störungen Verknüpfung
Generative Adversarial Perturbations Verknüpfung
LaVAN: Lokalisierter und sichtbarer kontradiktorischer Lärm Verknüpfung ICML2018
Robuste kontrapunktische Beispiele synthetisieren Verknüpfung ICML2018
Black-Box Adversarial Attacks mit begrenzten Anfragen und Informationen Verknüpfung ICML2018
Robustheit der Klassifikatoren: von kontradiktorisch bis zufällig Verknüpfung NIPS2016
Binarisierte neuronale Netze angreifen Verknüpfung ICLR2018
Entscheiderbasierte Angriffe – Zuverlässige Angriffe gegen Black-Box-Machine-Learning-Modelle Verknüpfung ICLR2018
Natural Adversarial Beispiele generieren Verknüpfung ICLR2018
Räumlich transformierte kontradiktorische Beispiele Verknüpfung ICLR2018
Eine Basislinie zum Erkennen falsch klassifizierter und nicht-verteilter Beispiele in neuronalen Netzwerken Verknüpfung ICLR2017
Widersprüchliche Beispiele in der physischen Welt Verknüpfung ICLR2017
In Transferable Adversarial Beispiele und Black-Box-Attacken Verknüpfung ICLR2017
Adversarial Manipulation von tiefen Darstellungen Verknüpfung ICLR2016
Erklären und Nutzen von kontradiktorischen Beispielen Verknüpfung ICLR2015
Faszinierende Eigenschaften neuronaler Netze Verknüpfung ICLR2014
NAG: Netzwerk für die Gegnergeneration Verknüpfung CVPR2018
Generative Adversarial Perturbations Verknüpfung CVPR2018
Gegnerische Attacken mit Schwung ankurbeln Verknüpfung CVPR2018
Adverse Beispiele für semantische Segmentierung und Objekterkennung Verknüpfung ICCV2017
Adversarial Image Perturbation für den Datenschutz – Eine Spieltheorie Perspektive Verknüpfung ICCV2017
Universal Adversarial Perturbations Against Semantic Image Segmentierung Verknüpfung ICCV2017
Adversarial Beispiele Entdeckung in Deep Networks mit Convolutional Filter Statistics Verknüpfung ICCV2017

DNN Verification and Testing: Angriff auf rekursive Netzwerke

Titel Verknüpfung Kommentar
Sparsame Kontroversen für Videos Verknüpfung
Manipulierendes maschinelles Lernen: Vergiftung von Angriffen und Gegenmaßnahmen für das Regressionslernen Verknüpfung S & P2018

DNN Verification and Testing: Angriffe auf Netzwerke für verstärkendes Lernen

Titel Verknüpfung Kommentar
Adverse Attacken auf Neural Network Policies Verknüpfung
Tactics of Adversarial Angriff auf Deep Reinforcement Learning Agents Verknüpfung
Sequentielle Angriffe auf Agenten für langfristige kontradiktorische Ziele Verknüpfung
Robustes Adversarial-Verstärkungslernen Verknüpfung ICML2017
Robustes Adversarial-Verstärkungslernen Verknüpfung
Robustes Tiefenverstärkungslernen mit feindlichen Angriffen Verknüpfung
Herausforderungen bei der Überprüfung von Algorithmen für die Verstärkung des Lernens Verknüpfung

DNN-Verifizierung und -Tests: Datasets

Titel Verknüpfung Kommentar
Der ApolloScape-Datensatz für autonomes Fahren Verknüpfung
BDD100K: Eine vielseitige Fahrvideo-Datenbank mit skalierbarem Anmerkungswerkzeug Verknüpfung
WILDTRACK: Ein Multi-Kamera HD-Dataset für die dichte, unerklickte Fußgängererkennung Verknüpfung CVPR2018
4DFAB: Eine 4D-Datenbank für die Analyse von Gesichtsausdrücken und biometrische Anwendungen Verknüpfung CVPR2018
Wiederaufnahme von Oxford und Paris: Large-Scale Image Retrieval Benchmarking Verknüpfung CVPR2018
LiDAR-Video Driving Dataset: Effizientes Lernen von Fahrstrategien Verknüpfung CVPR2018
AVA: Ein Video-Dataset von spatio-temporal lokalisierten atomaren visuellen Aktionen Verknüpfung CVPR2018
In Richtung Fahrszene Verständnis: Ein Datensatz zum Erlernen des Fahrerverhaltens und der Ursachenzuweisung Verknüpfung CVPR2018
VegFru: Ein domänenspezifischer Datensatz für feingranulare visuelle Kategorisierung Verknüpfung ICCV2017
Need for Speed: Ein Benchmark für die Verfolgung von Objekten mit höherer Bildrate Verknüpfung ICCV2017
Für Benchmarks spielen Verknüpfung ICCV2017
TorontoCity: Die Welt mit einer Million Augen sehen Verknüpfung ICCV2017

DNN-Verifizierung und -Tests: Angriffstechniken

Titel Verknüpfung Kommentar
Destillation als Verteidigung gegen feindselige Störungen gegen tiefe neuronale Netze Verknüpfung S & P2016
Parseval-Netzwerke: Verbesserung der Robustheit gegenüber kontradiktorischen Beispielen Verknüpfung
MagNet: Eine zwei lange Verteidigung gegen kontradiktorische Beispiele Verknüpfung
Deferting Adversarial Attacks mit Pixelablenkung Verknüpfung
Verteidigung gegen Universal Adversarial Perturbations Verknüpfung
Verteidigung gegen gegnerische Angriffe mit High-Level Representation Guided Denoiser Verknüpfung
Zur Robustheit semantischer Segmentierungsmodelle gegen feindselige Angriffe Verknüpfung
Geometrische Robustheit von tiefen Netzwerken: Analyse und Verbesserung Verknüpfung
Nachweisbare Verteidigung gegen kontradiktorische Beispiele über das konvexe äußere kontradiktorische Polytop Verknüpfung ICML2018
Parseval-Netzwerke: Verbesserung der Robustheit gegenüber kontradiktorischen Beispielen Verknüpfung ICML2017
Feature Squeeze: Erkennen kontradiktorischer Beispiele in tiefen neuralen Netzwerken Verknüpfung NDSS2018
Zertifizierte Verteidigung gegen kontradiktorische Beispiele Verknüpfung ICLR2018
Kampf gegen feindliche Angriffe mit sparsamen Darstellungen Verknüpfung ICLR2018
Konfrontation von kontradiktorischen Bildern mit Eingabetransformationen Verknüpfung ICLR2018
Defense-GAN – Schutzklassifizierer gegen feindliche Angriffe mit generativen Modellen Verknüpfung ICLR2018
Ensemble Adversarial Training- Angriffe und Verteidigung Verknüpfung ICLR2018
Abschwächung adversarischer Effekte durch Randomisierung Verknüpfung ICLR2018
Stochastische Aktivierungsbeschneidung für robuste kontradiktorische Verteidigung Verknüpfung ICLR2018
Thermometer Codierung – eine heiße Möglichkeit, widersprüchliche Beispiele zu widerstehen Verknüpfung ICLR2018
Hin zu Deep-Learning-Modellen, die resistent gegen feindliche Angriffe sind Verknüpfung ICLR2018
Zum Erkennen feindseliger Störungen Verknüpfung ICLR2017
Widerstandsfähige tiefe neuronale Netzwerke mit einer Anwendung zur Malware-Erkennung Verknüpfung KDD2017
Zur Robustheit semantischer Segmentierungsmodelle gegen feindselige Angriffe Verknüpfung CVPR2018
Verteidigung gegen feindliche Angriffe mit hochrangiger Repräsentation Guided Denoiser Verknüpfung CVPR2018
Verteidigung gegen universale feindselige Störungen Verknüpfung CVPR2018
Feature Quantisierung für die Verteidigung gegen Verzerrung von Bildern Verknüpfung CVPR2018
Deferting Adversarial Attacks mit Pixelablenkung Verknüpfung CVPR2018
SafetyNet: Konfrontationsbeispiele ausfindig machen und ablehnen Verknüpfung ICCV2017

DNN-Verifizierung und -Tests: Interpretierbarkeit

Titel Verknüpfung Kommentar
Der Mythos der Modellinterpretierbarkeit Verknüpfung
Erklärung Methoden im Deep Learning: Benutzer, Werte, Anliegen und Herausforderungen Verknüpfung
„Warum sollte ich Ihnen vertrauen?“: Die Vorhersagen jedes Klassifikators erklären Verknüpfung LIMETTE
Wichtige Funktionen durch Propagierung von Aktivierungsunterschieden lernen Verknüpfung IMCL2017 – DeepLIFT
Rationalisierung von neuronalen Vorhersagen Verknüpfung
Interpretierbare Erklärungen von Black Boxes durch Meaningful Perturbation Verknüpfung
Grad-CAM: Visuelle Erklärungen von Deep Networks über gradientenbasierte Lokalisierung Verknüpfung
Methoden zum Interpretieren und Verstehen tiefer neuronaler Netze Verknüpfung
Verstehen von Black-Box-Vorhersagen über Einflussfunktionen Verknüpfung ICML2017
Axiomatische Attribution für Deep Networks Verknüpfung ICML2017
Jenseits der Salienz: Verstehen von konvolutionellen neuronalen Netzen aus der Saliency-Vorhersage für schichtweise Relevanzpropagation Verknüpfung LRP
Ein einheitlicher Ansatz zur Interpretation von Modellvorhersagen Verknüpfung NIPS2017, Shapley
Erklärung und Rechtfertigung beim maschinellen Lernen: Eine Umfrage Verknüpfung
Verwenden von Erläuterungen zum Verbessern der Zusammenfassung von visuellen Frageansagesystemen Verknüpfung
Ein einfaches neuronales Netzwerkmodul für relationales Schließen Verknüpfung
Beispiele sind nicht genug, lernen zu kritisieren! Kritik für die Interpretierbarkeit Verknüpfung NIPS2016
DeepVoting: Ein robustes und erklärbares Deep Network für die Semantic Part Detection unter Partial Okklusion Verknüpfung
Lernen zu erklären: Eine informationstheoretische Perspektive auf Modellinterpretation Verknüpfung ICML2018
Variationale Informationsmaximierung für die Merkmalauswahl Verknüpfung
Atari-Agenten visualisieren und verstehen Verknüpfung ICML2018
Interpretierbarkeit über die Merkmalzuordnung hinaus: Quantitatives Testen mit Konzeptaktivierungsvektoren (TCAV) Verknüpfung ICML2018
MINE: Mutual Information Neural Estimation Verknüpfung ICML2018
Verständnis der Darstellung und Berechnung von mehrschichtigen Perzeptrons: Eine Fallstudie zur Spracherkennung Verknüpfung ICML2017
Nonparanormal Information Estimation Verknüpfung ICML2017
Schätzung gegenseitiger Information für diskrete kontinuierliche Mischungen. Verknüpfung NIPS2017
Interpretierbare Verteilungsfunktionen mit maximaler Testleistung. Verknüpfung NIPS2016
Variationale Informationsmaximierung für die Merkmalauswahl. Verknüpfung NIPS2016
Effiziente nichtparametrische Glättungsschätzung. Verknüpfung NIPS2016
Finite-Sample-Analyse von Fixed-k Nearest Neighbor Density Functional Estimators. Verknüpfung NIPS2016
Lern Einflussfunktionen von unvollständigen Beobachtungen. Verknüpfung NIPS2016
Durchbrechen der Bandbreitenbarriere: Geometrische adaptive Entropieschätzung. Verknüpfung NIPS2016
Effiziente Schätzung der gegenseitigen Informationen für stark abhängige Variablen. Verknüpfung AISTATS2015
Schätzung der gegenseitigen Information durch lokale Gauß-Approximation. Verknüpfung UAI2015
Zum Lernen spärlicher boolescher Formeln zur Erklärung von AI-Entscheidungen. Verknüpfung NFM2017
Charakterisierung adversarischer Unterräume mit lokaler intrinsischer Dimensionalität Verknüpfung ICLR2018
Entscheidungsgrenzenanalyse von kontradiktorischen Beispielen Verknüpfung ICLR2018
Faszinierende Eigenschaften von kontradiktorischen Beispielen Verknüpfung ICLR2018
Robustheit von Klassifikatoren gegenüber universellen Störungen – eine geometrische Perspektive Verknüpfung ICLR2018
Zur Begrenzung lokaler intrinsischer Dimensionalität zur Charakterisierung der Unterräume von kontradiktorischen Beispielen Verknüpfung ICLR2018
Effiziente Darstellung von niederdimensionalen Mannigfaltigkeiten mit tiefen Netzwerken Verknüpfung ICLR2017
Um tiefes Lernen zu verstehen, muss die Verallgemeinerung überdacht werden Verknüpfung ICLR2017
Warum tiefe neuronale Netze für die Funktionsannäherung Verknüpfung ICLR2017
Tief in die CNN-Schichten eindringen – Auf der Suche nach CNNs, die eine Invarianz erreichen Verknüpfung ICLR2016
Datenrepräsentation und -kompression mit linear-programmierten Approximationen Verknüpfung ICLR2016
Die lokale Niedrigdimensionalität natürlicher Bilder Verknüpfung ICLR2015
Transformationseigenschaften gelernter visueller Repräsentationen Verknüpfung ICLR2015
Factorized Sparse Learning-Modelle mit interpretierbaren Interaktionen höherer Ordnung Verknüpfung KDD14
Interpretierbare Entscheidungssätze – Ein gemeinsamer Rahmen für Beschreibung und Vorhersage Verknüpfung KDD16
Interpretierbare Vorhersagen von Baum-basierten Ensembles mittels Actionable Feature Tweaking Verknüpfung KDD17
Verwendung von Zeitmustern zur Schätzung der Unsicherheit bei interpretierbaren frühen Entscheidungen Verknüpfung KDD14
Warum sollte ich Ihnen vertrauen – Erklären Sie die Vorhersagen eines Klassifikators Verknüpfung KDD16
Auf dem Weg zu einem mathematischen Verständnis der Lernschwierigkeiten mit vorwärtsgerichteten neuronalen Netzen Verknüpfung CVPR2018
Was sehen Deep Networks gerne? Verknüpfung CVPR2018
Perturbative neuronale Netze Verknüpfung CVPR2018
Empirische Untersuchung der Topologie und Geometrie von tiefen Netzwerken Verknüpfung CVPR2018
Net2Vec: Quantifizieren und Erklären, wie Konzepte durch Filter in tiefen neuronalen Netzen codiert werden Verknüpfung CVPR2018
Interpretierbare Convolutional Neural Networks Verknüpfung CVPR2018
Interpretieren Sie neuronale Netzwerke durch Identifizieren kritischer Datenroutingpfade Verknüpfung CVPR2018
Grad-CAM: Visuelle Erläuterungen aus Deep Networks über gradientenbasierte Lokalisierung Verknüpfung ICCV2017
Interpretierbares Lernen für selbstfahrende Autos durch Visualisierung von kausaler Aufmerksamkeit Verknüpfung ICCV2017

DNN-Verifizierung und -Tests: Interpretierbarkeit

Titel Verknüpfung Kommentar
Sicheres modellbasiertes Reinforcement Learning mit Stabilitätsgarantien Verknüpfung NIPS2017
Sichere Exploration in Finite-Markov-Entscheidungsprozessen mit Gauß-Prozessen Verknüpfung NIPS2017
Adversarial Sphären Verknüpfung ICLR2018
Zertifizierung einiger Verteilungsrobustheit mit Principled Adversarial Training Verknüpfung ICLR2018
Ensemble Robustheit und Generalisierung von stochastischen Deep Learning Algorithmen Verknüpfung ICLR2018
Stabile Verteilungsausrichtung unter Verwendung des Zweiers der kontradiktorischen Distanz Verknüpfung ICLR2018
Adversarial Machine Learning im Maßstab Verknüpfung ICLR2017
Adversarial Trainingsmethoden für die semi-überwachte Textklassifikation Verknüpfung ICLR2017
EPOpt – Lernen von robusten neuronalen Netzwerkrichtlinien mithilfe von Modell-Ensembles Verknüpfung ICLR2017
Auf robusten Konzepten und kleinen neuronalen Netzen Verknüpfung ICLR2017
Engere Grenzen führen zu verbesserten Klassifikatoren Verknüpfung ICLR2017
Über die Stabilität von Deep Networks Verknüpfung ICLR2015
Geometrische Robustheit von tiefen Netzwerken: Analyse und Verbesserung Verknüpfung CVPR2018
Erhöhung der CNN-Robustheit gegenüber Okklusionen durch Reduzierung der Filterunterstützung Verknüpfung ICCV2017

DNN-Verifizierung und -Tests: Testtechniken

Titel Verknüpfung Kommentar
Deepxplore: Automatisierter Whitebox-Test von Deep-Learning-Systemen Verknüpfung SOSP2017
DeepRoad: Gan-basierte Metamorphic Autonomous Driving System Testing Verknüpfung
Testen von tiefen neuralen Netzwerken Verknüpfung
Concolic Testing für tiefe neuronale Netze Verknüpfung
DeepGauge: Umfassende und Multi-Granularitäts-Testkriterien für die Robustheit von Deep Learning-Systemen Verknüpfung
DeepTest: Automatisiertes Testen von Deep-Neural-Network-gesteuerten autonomen Autos Verknüpfung VerifyML;ICSE2018
Identifizieren von Implementierungsfehlern in maschinell lernenden Bildklassifizierern unter Verwendung von Metamorphic Testing Verknüpfung ISSTA2018
Testen und Validieren maschineller Lernklassifizierer durch metamorphes Testen Verknüpfung JSS2011
Validieren eines tiefen Lernrahmens durch metamorphes Testen Verknüpfung MET2017
Automatisierte Direkte Fairness-Tests Verknüpfung
Symbolische Ausführung für tiefe neuronale Netze Verknüpfung
TensorFuzz: Debuggen von neuronalen Netzen mit Coverage-Guided Fuzzing Verknüpfung

DNN-Verifizierung und -Tests: Verifikationstechniken

Titel Verknüpfung Kommentar
Sicherheitsverifikation von tiefen neuralen Netzwerken Verknüpfung DLV;CAV2018
Reluplex: Ein effizienter SMT-Solver zur Überprüfung tiefer neuronaler Netze Verknüpfung CAV2018
Nachweisbare Verteidigung gegen kontradiktorische Beispiele über das konvexe äußere kontradiktorische Polytop Verknüpfung
Formale Verifikation von stückweisen linearen Feed-Forward-Netzwerken Verknüpfung ATVA2017
Maximale Belastbarkeit künstlicher neuronaler Netze. Verknüpfung ATVA2017
Feature-Guided Black-Box-Sicherheitstests für tiefe neuronale Netze Verknüpfung SafeCV;TACAS2018
Verifikation von binarisierten neuronalen Netzwerken mittels Inter-Neuron Factoring Verknüpfung
Eine einheitliche Ansicht der stückweisen linearen neuronalen Netzwerkverifizierung Verknüpfung
Ausgabebereichsanalyse für tiefe neuronale Netzwerke Verknüpfung
Ausgabebereichsanalyse für tiefgekoppelte neuronale Netze Verknüpfung NFM2018
Kompositorische Fälschung von Cyber-Physical Systems mit Machine Learning-Komponenten Verknüpfung NFM2017
Globale Robustheitsbewertung von tiefen neuronalen Netzen mit nachweisbaren Garantien für L0 Norm Verknüpfung L0-TRE
Output Reachable Set Estimation und Verifikation für mehrschichtige neuronale Netze Verknüpfung
Formale Sicherheitsanalyse neuronaler Netze mit symbolischen Intervallen Verknüpfung
Erreichbare Schätzung und Überprüfung von neuronalen Netzwerkmodellen nichtlinearer dynamischer Systeme Verknüpfung
AI2: Sicherheit und Robustheit Zertifizierung neuronaler Netze mit abstrakter Interpretation Verknüpfung S & P2018
Erreichbarkeitsanalyse von tiefen neuronalen Netzen mit nachweisbaren Garantien Verknüpfung DeepGO
Bewertung der Robustheit neuronaler Netzwerke: Ein extremwerttheoretischer Ansatz Verknüpfung KLUG
Extrahieren von Automaten aus rekurrenten neuronalen Netzen mit Hilfe von Abfragen und Gegenbeispielen Verknüpfung ICML2018
Lipschitz-Kontinuität im modellbasierten Bewehrungslernen Verknüpfung ICML2018
Differenzielle abstrakte Interpretation für nachweisbar robuste neuronale Netze Verknüpfung ICML2018
Globale Optimierung der Lipschitz-Funktionen Verknüpfung ICML2017
Ein Ranking-Ansatz zur globalen Optimierung Verknüpfung ICML2016
BASC: Anwenden der Bayes’schen Optimierung auf die Suche nach Global Minima auf potentiellen Energieoberflächen Verknüpfung ICML2016
Untergrenzen für die Robustheit gegenüber feindseligen Störungen Verknüpfung NIPS2017
Formelle Garantien für die Robustheit eines Klassifikators gegen feindliche Manipulationen Verknüpfung NIPS2017
Neuronale Netzwerk-Robustheit mit Einschränkungen messen Verknüpfung NIPS2017
Kontrollierbare Invarianz durch kontradiktorisches Merkmallernen. Verknüpfung NIPS2017
Formale Sicherheitsanalyse neuronaler Netze mit symbolischen Intervallen. Verknüpfung USENIX-Sicherheit 2018
Bewertung der Robustheit neuronaler Netze – ein extremwerttheoretischer Ansatz Verknüpfung ICLR2018
Ein theoretischer Rahmen für die Robustheit von (Deep) Classifiern gegen Adversarial Samples Verknüpfung ICLR2017
In Richtung schnelle Berechnung der zertifizierten Robustheit für ReLU-Netzwerke Verknüpfung ICML2018

Leave a Comment

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahren Sie mehr darüber, wie Ihre Kommentardaten verarbeitet werden .

Scroll Up