Literatur zur DNN-Verifizierung und -Tests
Dr.-Ing. Sorin Liviu Jurj Donnerstag, 2. August 2018, 14:39
Für diejenigen von euch die Interesse an Deep Neural Networks haben, diese Literatur über DNN-Verifizierung und -Tests ist bestimmt sehr hilfreich. Viel Spaß beim Lesen!
DNN-Verifizierung und -Tests: Allgemeine AI-Sicherheitsprobleme Titel Verknüpfung Konkrete Probleme in der KI-Sicherheit Verknüpfung Eine Analyse von ISO 26262: Sicheres maschinelles Lernen in Automotive-Software Verknüpfung In Richtung eines Rahmens für hoch automatisierte Fahrzeugsicherheitsvalidierung Verknüpfung Taktisches Sicherheitsdenken. Ein Fall für autonome Fahrzeuge Verknüpfung Der Stand der Lösungen für die Sicherheit autonomer Systeme Verknüpfung Nachdenken über die Sicherheit von lernfähigen Komponenten in autonomen Cyber-physischen Systemen Verknüpfung Planung und Entscheidungsfindung für autonome Fahrzeuge Verknüpfung Simulationsbasierte Testgenerierung für autonome Fahrzeuge mit maschinellen Lernkomponenten Verknüpfung
DNN-Verifizierung und -Tests: Angreifen von Feedforward-DNNs Titel Verknüpfung Kommentar Erklären und Nutzen von kontradiktorischen Beispielen Verknüpfung DeepFool: eine einfache und genaue Methode, um tiefe neuronale Netzwerke zu täuschen Verknüpfung Die Grenzen des Deep Learning in kontradiktorischen Einstellungen Verknüpfung Euro S & P 2016 Tiefe neuronale Netze lassen sich leicht täuschen: Hohe Zuverlässigkeitsvorhersagen für nicht erkennbare Bilder Verknüpfung Auf dem Weg zur Robustheit neuronaler Netzwerke Verknüpfung S & P2017 Widersprüchliche Beispiele in der physischen Welt Verknüpfung Universal adversarial Perturbations Verknüpfung Übertragbarkeit im maschinellen Lernen: Von Phänomenen zu Black-Box-Attacken mit adversarischem Muster Verknüpfung Praktische Black-Box-Angriffe gegen maschinelles Lernen Verknüpfung Robuste Physical-World Angriffe auf Deep Learning-Modelle Verknüpfung KEIN ANGST BEACHTEN ÜBER VERGLEICHSBEISPIELE BEI DER OBJEKTERKENNUNG IN AUTONOMEN Vehikeln Verknüpfung Gegnerische Attacken mit Schwung ankurbeln Verknüpfung Kunst der singulären Vektoren und universellen kontradiktorischen Störungen Verknüpfung Generative Adversarial Perturbations Verknüpfung LaVAN: Lokalisierter und sichtbarer kontradiktorischer Lärm Verknüpfung ICML2018 Robuste kontrapunktische Beispiele synthetisieren Verknüpfung ICML2018 Black-Box Adversarial Attacks mit begrenzten Anfragen und Informationen Verknüpfung ICML2018 Robustheit der Klassifikatoren: von kontradiktorisch bis zufällig Verknüpfung NIPS2016 Binarisierte neuronale Netze angreifen Verknüpfung ICLR2018 Entscheiderbasierte Angriffe – Zuverlässige Angriffe gegen Black-Box-Machine-Learning-Modelle Verknüpfung ICLR2018 Natural Adversarial Beispiele generieren Verknüpfung ICLR2018 Räumlich transformierte kontradiktorische Beispiele Verknüpfung ICLR2018 Eine Basislinie zum Erkennen falsch klassifizierter und nicht-verteilter Beispiele in neuronalen Netzwerken Verknüpfung ICLR2017 Widersprüchliche Beispiele in der physischen Welt Verknüpfung ICLR2017 In Transferable Adversarial Beispiele und Black-Box-Attacken Verknüpfung ICLR2017 Adversarial Manipulation von tiefen Darstellungen Verknüpfung ICLR2016 Erklären und Nutzen von kontradiktorischen Beispielen Verknüpfung ICLR2015 Faszinierende Eigenschaften neuronaler Netze Verknüpfung ICLR2014 NAG: Netzwerk für die Gegnergeneration Verknüpfung CVPR2018 Generative Adversarial Perturbations Verknüpfung CVPR2018 Gegnerische Attacken mit Schwung ankurbeln Verknüpfung CVPR2018 Adverse Beispiele für semantische Segmentierung und Objekterkennung Verknüpfung ICCV2017 Adversarial Image Perturbation für den Datenschutz – Eine Spieltheorie Perspektive Verknüpfung ICCV2017 Universal Adversarial Perturbations Against Semantic Image Segmentierung Verknüpfung ICCV2017 Adversarial Beispiele Entdeckung in Deep Networks mit Convolutional Filter Statistics Verknüpfung ICCV2017
DNN Verification and Testing: Angriff auf rekursive Netzwerke Titel Verknüpfung Kommentar Sparsame Kontroversen für Videos Verknüpfung Manipulierendes maschinelles Lernen: Vergiftung von Angriffen und Gegenmaßnahmen für das Regressionslernen Verknüpfung S & P2018
DNN Verification and Testing: Angriffe auf Netzwerke für verstärkendes Lernen Titel Verknüpfung Kommentar Adverse Attacken auf Neural Network Policies Verknüpfung Tactics of Adversarial Angriff auf Deep Reinforcement Learning Agents Verknüpfung Sequentielle Angriffe auf Agenten für langfristige kontradiktorische Ziele Verknüpfung Robustes Adversarial-Verstärkungslernen Verknüpfung ICML2017 Robustes Adversarial-Verstärkungslernen Verknüpfung Robustes Tiefenverstärkungslernen mit feindlichen Angriffen Verknüpfung Herausforderungen bei der Überprüfung von Algorithmen für die Verstärkung des Lernens Verknüpfung
DNN-Verifizierung und -Tests: Datasets Titel Verknüpfung Kommentar Der ApolloScape-Datensatz für autonomes Fahren Verknüpfung BDD100K: Eine vielseitige Fahrvideo-Datenbank mit skalierbarem Anmerkungswerkzeug Verknüpfung WILDTRACK: Ein Multi-Kamera HD-Dataset für die dichte, unerklickte Fußgängererkennung Verknüpfung CVPR2018 4DFAB: Eine 4D-Datenbank für die Analyse von Gesichtsausdrücken und biometrische Anwendungen Verknüpfung CVPR2018 Wiederaufnahme von Oxford und Paris: Large-Scale Image Retrieval Benchmarking Verknüpfung CVPR2018 LiDAR-Video Driving Dataset: Effizientes Lernen von Fahrstrategien Verknüpfung CVPR2018 AVA: Ein Video-Dataset von spatio-temporal lokalisierten atomaren visuellen Aktionen Verknüpfung CVPR2018 In Richtung Fahrszene Verständnis: Ein Datensatz zum Erlernen des Fahrerverhaltens und der Ursachenzuweisung Verknüpfung CVPR2018 VegFru: Ein domänenspezifischer Datensatz für feingranulare visuelle Kategorisierung Verknüpfung ICCV2017 Need for Speed: Ein Benchmark für die Verfolgung von Objekten mit höherer Bildrate Verknüpfung ICCV2017 Für Benchmarks spielen Verknüpfung ICCV2017 TorontoCity: Die Welt mit einer Million Augen sehen Verknüpfung ICCV2017
DNN-Verifizierung und -Tests: Angriffstechniken Titel Verknüpfung Kommentar Destillation als Verteidigung gegen feindselige Störungen gegen tiefe neuronale Netze Verknüpfung S & P2016 Parseval-Netzwerke: Verbesserung der Robustheit gegenüber kontradiktorischen Beispielen Verknüpfung MagNet: Eine zwei lange Verteidigung gegen kontradiktorische Beispiele Verknüpfung Deferting Adversarial Attacks mit Pixelablenkung Verknüpfung Verteidigung gegen Universal Adversarial Perturbations Verknüpfung Verteidigung gegen gegnerische Angriffe mit High-Level Representation Guided Denoiser Verknüpfung Zur Robustheit semantischer Segmentierungsmodelle gegen feindselige Angriffe Verknüpfung Geometrische Robustheit von tiefen Netzwerken: Analyse und Verbesserung Verknüpfung Nachweisbare Verteidigung gegen kontradiktorische Beispiele über das konvexe äußere kontradiktorische Polytop Verknüpfung ICML2018 Parseval-Netzwerke: Verbesserung der Robustheit gegenüber kontradiktorischen Beispielen Verknüpfung ICML2017 Feature Squeeze: Erkennen kontradiktorischer Beispiele in tiefen neuralen Netzwerken Verknüpfung NDSS2018 Zertifizierte Verteidigung gegen kontradiktorische Beispiele Verknüpfung ICLR2018 Kampf gegen feindliche Angriffe mit sparsamen Darstellungen Verknüpfung ICLR2018 Konfrontation von kontradiktorischen Bildern mit Eingabetransformationen Verknüpfung ICLR2018 Defense-GAN – Schutzklassifizierer gegen feindliche Angriffe mit generativen Modellen Verknüpfung ICLR2018 Ensemble Adversarial Training- Angriffe und Verteidigung Verknüpfung ICLR2018 Abschwächung adversarischer Effekte durch Randomisierung Verknüpfung ICLR2018 Stochastische Aktivierungsbeschneidung für robuste kontradiktorische Verteidigung Verknüpfung ICLR2018 Thermometer Codierung – eine heiße Möglichkeit, widersprüchliche Beispiele zu widerstehen Verknüpfung ICLR2018 Hin zu Deep-Learning-Modellen, die resistent gegen feindliche Angriffe sind Verknüpfung ICLR2018 Zum Erkennen feindseliger Störungen Verknüpfung ICLR2017 Widerstandsfähige tiefe neuronale Netzwerke mit einer Anwendung zur Malware-Erkennung Verknüpfung KDD2017 Zur Robustheit semantischer Segmentierungsmodelle gegen feindselige Angriffe Verknüpfung CVPR2018 Verteidigung gegen feindliche Angriffe mit hochrangiger Repräsentation Guided Denoiser Verknüpfung CVPR2018 Verteidigung gegen universale feindselige Störungen Verknüpfung CVPR2018 Feature Quantisierung für die Verteidigung gegen Verzerrung von Bildern Verknüpfung CVPR2018 Deferting Adversarial Attacks mit Pixelablenkung Verknüpfung CVPR2018 SafetyNet: Konfrontationsbeispiele ausfindig machen und ablehnen Verknüpfung ICCV2017
DNN-Verifizierung und -Tests: Interpretierbarkeit Titel Verknüpfung Kommentar Der Mythos der Modellinterpretierbarkeit Verknüpfung Erklärung Methoden im Deep Learning: Benutzer, Werte, Anliegen und Herausforderungen Verknüpfung „Warum sollte ich Ihnen vertrauen?“: Die Vorhersagen jedes Klassifikators erklären Verknüpfung LIMETTE Wichtige Funktionen durch Propagierung von Aktivierungsunterschieden lernen Verknüpfung IMCL2017 – DeepLIFT Rationalisierung von neuronalen Vorhersagen Verknüpfung Interpretierbare Erklärungen von Black Boxes durch Meaningful Perturbation Verknüpfung Grad-CAM: Visuelle Erklärungen von Deep Networks über gradientenbasierte Lokalisierung Verknüpfung Methoden zum Interpretieren und Verstehen tiefer neuronaler Netze Verknüpfung Verstehen von Black-Box-Vorhersagen über Einflussfunktionen Verknüpfung ICML2017 Axiomatische Attribution für Deep Networks Verknüpfung ICML2017 Jenseits der Salienz: Verstehen von konvolutionellen neuronalen Netzen aus der Saliency-Vorhersage für schichtweise Relevanzpropagation Verknüpfung LRP Ein einheitlicher Ansatz zur Interpretation von Modellvorhersagen Verknüpfung NIPS2017, Shapley Erklärung und Rechtfertigung beim maschinellen Lernen: Eine Umfrage Verknüpfung Verwenden von Erläuterungen zum Verbessern der Zusammenfassung von visuellen Frageansagesystemen Verknüpfung Ein einfaches neuronales Netzwerkmodul für relationales Schließen Verknüpfung Beispiele sind nicht genug, lernen zu kritisieren! Kritik für die Interpretierbarkeit Verknüpfung NIPS2016 DeepVoting: Ein robustes und erklärbares Deep Network für die Semantic Part Detection unter Partial Okklusion Verknüpfung Lernen zu erklären: Eine informationstheoretische Perspektive auf Modellinterpretation Verknüpfung ICML2018 Variationale Informationsmaximierung für die Merkmalauswahl Verknüpfung Atari-Agenten visualisieren und verstehen Verknüpfung ICML2018 Interpretierbarkeit über die Merkmalzuordnung hinaus: Quantitatives Testen mit Konzeptaktivierungsvektoren (TCAV) Verknüpfung ICML2018 MINE: Mutual Information Neural Estimation Verknüpfung ICML2018 Verständnis der Darstellung und Berechnung von mehrschichtigen Perzeptrons: Eine Fallstudie zur Spracherkennung Verknüpfung ICML2017 Nonparanormal Information Estimation Verknüpfung ICML2017 Schätzung gegenseitiger Information für diskrete kontinuierliche Mischungen. Verknüpfung NIPS2017 Interpretierbare Verteilungsfunktionen mit maximaler Testleistung. Verknüpfung NIPS2016 Variationale Informationsmaximierung für die Merkmalauswahl. Verknüpfung NIPS2016 Effiziente nichtparametrische Glättungsschätzung. Verknüpfung NIPS2016 Finite-Sample-Analyse von Fixed-k Nearest Neighbor Density Functional Estimators. Verknüpfung NIPS2016 Lern Einflussfunktionen von unvollständigen Beobachtungen. Verknüpfung NIPS2016 Durchbrechen der Bandbreitenbarriere: Geometrische adaptive Entropieschätzung. Verknüpfung NIPS2016 Effiziente Schätzung der gegenseitigen Informationen für stark abhängige Variablen. Verknüpfung AISTATS2015 Schätzung der gegenseitigen Information durch lokale Gauß-Approximation. Verknüpfung UAI2015 Zum Lernen spärlicher boolescher Formeln zur Erklärung von AI-Entscheidungen. Verknüpfung NFM2017 Charakterisierung adversarischer Unterräume mit lokaler intrinsischer Dimensionalität Verknüpfung ICLR2018 Entscheidungsgrenzenanalyse von kontradiktorischen Beispielen Verknüpfung ICLR2018 Faszinierende Eigenschaften von kontradiktorischen Beispielen Verknüpfung ICLR2018 Robustheit von Klassifikatoren gegenüber universellen Störungen – eine geometrische Perspektive Verknüpfung ICLR2018 Zur Begrenzung lokaler intrinsischer Dimensionalität zur Charakterisierung der Unterräume von kontradiktorischen Beispielen Verknüpfung ICLR2018 Effiziente Darstellung von niederdimensionalen Mannigfaltigkeiten mit tiefen Netzwerken Verknüpfung ICLR2017 Um tiefes Lernen zu verstehen, muss die Verallgemeinerung überdacht werden Verknüpfung ICLR2017 Warum tiefe neuronale Netze für die Funktionsannäherung Verknüpfung ICLR2017 Tief in die CNN-Schichten eindringen – Auf der Suche nach CNNs, die eine Invarianz erreichen Verknüpfung ICLR2016 Datenrepräsentation und -kompression mit linear-programmierten Approximationen Verknüpfung ICLR2016 Die lokale Niedrigdimensionalität natürlicher Bilder Verknüpfung ICLR2015 Transformationseigenschaften gelernter visueller Repräsentationen Verknüpfung ICLR2015 Factorized Sparse Learning-Modelle mit interpretierbaren Interaktionen höherer Ordnung Verknüpfung KDD14 Interpretierbare Entscheidungssätze – Ein gemeinsamer Rahmen für Beschreibung und Vorhersage Verknüpfung KDD16 Interpretierbare Vorhersagen von Baum-basierten Ensembles mittels Actionable Feature Tweaking Verknüpfung KDD17 Verwendung von Zeitmustern zur Schätzung der Unsicherheit bei interpretierbaren frühen Entscheidungen Verknüpfung KDD14 Warum sollte ich Ihnen vertrauen – Erklären Sie die Vorhersagen eines Klassifikators Verknüpfung KDD16 Auf dem Weg zu einem mathematischen Verständnis der Lernschwierigkeiten mit vorwärtsgerichteten neuronalen Netzen Verknüpfung CVPR2018 Was sehen Deep Networks gerne? Verknüpfung CVPR2018 Perturbative neuronale Netze Verknüpfung CVPR2018 Empirische Untersuchung der Topologie und Geometrie von tiefen Netzwerken Verknüpfung CVPR2018 Net2Vec: Quantifizieren und Erklären, wie Konzepte durch Filter in tiefen neuronalen Netzen codiert werden Verknüpfung CVPR2018 Interpretierbare Convolutional Neural Networks Verknüpfung CVPR2018 Interpretieren Sie neuronale Netzwerke durch Identifizieren kritischer Datenroutingpfade Verknüpfung CVPR2018 Grad-CAM: Visuelle Erläuterungen aus Deep Networks über gradientenbasierte Lokalisierung Verknüpfung ICCV2017 Interpretierbares Lernen für selbstfahrende Autos durch Visualisierung von kausaler Aufmerksamkeit Verknüpfung ICCV2017
DNN-Verifizierung und -Tests: Interpretierbarkeit Titel Verknüpfung Kommentar Sicheres modellbasiertes Reinforcement Learning mit Stabilitätsgarantien Verknüpfung NIPS2017 Sichere Exploration in Finite-Markov-Entscheidungsprozessen mit Gauß-Prozessen Verknüpfung NIPS2017 Adversarial Sphären Verknüpfung ICLR2018 Zertifizierung einiger Verteilungsrobustheit mit Principled Adversarial Training Verknüpfung ICLR2018 Ensemble Robustheit und Generalisierung von stochastischen Deep Learning Algorithmen Verknüpfung ICLR2018 Stabile Verteilungsausrichtung unter Verwendung des Zweiers der kontradiktorischen Distanz Verknüpfung ICLR2018 Adversarial Machine Learning im Maßstab Verknüpfung ICLR2017 Adversarial Trainingsmethoden für die semi-überwachte Textklassifikation Verknüpfung ICLR2017 EPOpt – Lernen von robusten neuronalen Netzwerkrichtlinien mithilfe von Modell-Ensembles Verknüpfung ICLR2017 Auf robusten Konzepten und kleinen neuronalen Netzen Verknüpfung ICLR2017 Engere Grenzen führen zu verbesserten Klassifikatoren Verknüpfung ICLR2017 Über die Stabilität von Deep Networks Verknüpfung ICLR2015 Geometrische Robustheit von tiefen Netzwerken: Analyse und Verbesserung Verknüpfung CVPR2018 Erhöhung der CNN-Robustheit gegenüber Okklusionen durch Reduzierung der Filterunterstützung Verknüpfung ICCV2017
DNN-Verifizierung und -Tests: Testtechniken Titel Verknüpfung Kommentar Deepxplore: Automatisierter Whitebox-Test von Deep-Learning-Systemen Verknüpfung SOSP2017 DeepRoad: Gan-basierte Metamorphic Autonomous Driving System Testing Verknüpfung Testen von tiefen neuralen Netzwerken Verknüpfung Concolic Testing für tiefe neuronale Netze Verknüpfung DeepGauge: Umfassende und Multi-Granularitäts-Testkriterien für die Robustheit von Deep Learning-Systemen Verknüpfung DeepTest: Automatisiertes Testen von Deep-Neural-Network-gesteuerten autonomen Autos Verknüpfung VerifyML;ICSE2018 Identifizieren von Implementierungsfehlern in maschinell lernenden Bildklassifizierern unter Verwendung von Metamorphic Testing Verknüpfung ISSTA2018 Testen und Validieren maschineller Lernklassifizierer durch metamorphes Testen Verknüpfung JSS2011 Validieren eines tiefen Lernrahmens durch metamorphes Testen Verknüpfung MET2017 Automatisierte Direkte Fairness-Tests Verknüpfung Symbolische Ausführung für tiefe neuronale Netze Verknüpfung TensorFuzz: Debuggen von neuronalen Netzen mit Coverage-Guided Fuzzing Verknüpfung
DNN-Verifizierung und -Tests: Verifikationstechniken Titel Verknüpfung Kommentar Sicherheitsverifikation von tiefen neuralen Netzwerken Verknüpfung DLV;CAV2018 Reluplex: Ein effizienter SMT-Solver zur Überprüfung tiefer neuronaler Netze Verknüpfung CAV2018 Nachweisbare Verteidigung gegen kontradiktorische Beispiele über das konvexe äußere kontradiktorische Polytop Verknüpfung Formale Verifikation von stückweisen linearen Feed-Forward-Netzwerken Verknüpfung ATVA2017 Maximale Belastbarkeit künstlicher neuronaler Netze. Verknüpfung ATVA2017 Feature-Guided Black-Box-Sicherheitstests für tiefe neuronale Netze Verknüpfung SafeCV;TACAS2018 Verifikation von binarisierten neuronalen Netzwerken mittels Inter-Neuron Factoring Verknüpfung Eine einheitliche Ansicht der stückweisen linearen neuronalen Netzwerkverifizierung Verknüpfung Ausgabebereichsanalyse für tiefe neuronale Netzwerke Verknüpfung Ausgabebereichsanalyse für tiefgekoppelte neuronale Netze Verknüpfung NFM2018 Kompositorische Fälschung von Cyber-Physical Systems mit Machine Learning-Komponenten Verknüpfung NFM2017 Globale Robustheitsbewertung von tiefen neuronalen Netzen mit nachweisbaren Garantien für L0 Norm Verknüpfung L0-TRE Output Reachable Set Estimation und Verifikation für mehrschichtige neuronale Netze Verknüpfung Formale Sicherheitsanalyse neuronaler Netze mit symbolischen Intervallen Verknüpfung Erreichbare Schätzung und Überprüfung von neuronalen Netzwerkmodellen nichtlinearer dynamischer Systeme Verknüpfung AI2: Sicherheit und Robustheit Zertifizierung neuronaler Netze mit abstrakter Interpretation Verknüpfung S & P2018 Erreichbarkeitsanalyse von tiefen neuronalen Netzen mit nachweisbaren Garantien Verknüpfung DeepGO Bewertung der Robustheit neuronaler Netzwerke: Ein extremwerttheoretischer Ansatz Verknüpfung KLUG Extrahieren von Automaten aus rekurrenten neuronalen Netzen mit Hilfe von Abfragen und Gegenbeispielen Verknüpfung ICML2018 Lipschitz-Kontinuität im modellbasierten Bewehrungslernen Verknüpfung ICML2018 Differenzielle abstrakte Interpretation für nachweisbar robuste neuronale Netze Verknüpfung ICML2018 Globale Optimierung der Lipschitz-Funktionen Verknüpfung ICML2017 Ein Ranking-Ansatz zur globalen Optimierung Verknüpfung ICML2016 BASC: Anwenden der Bayes’schen Optimierung auf die Suche nach Global Minima auf potentiellen Energieoberflächen Verknüpfung ICML2016 Untergrenzen für die Robustheit gegenüber feindseligen Störungen Verknüpfung NIPS2017 Formelle Garantien für die Robustheit eines Klassifikators gegen feindliche Manipulationen Verknüpfung NIPS2017 Neuronale Netzwerk-Robustheit mit Einschränkungen messen Verknüpfung NIPS2017 Kontrollierbare Invarianz durch kontradiktorisches Merkmallernen. Verknüpfung NIPS2017 Formale Sicherheitsanalyse neuronaler Netze mit symbolischen Intervallen. Verknüpfung USENIX-Sicherheit 2018 Bewertung der Robustheit neuronaler Netze – ein extremwerttheoretischer Ansatz Verknüpfung ICLR2018 Ein theoretischer Rahmen für die Robustheit von (Deep) Classifiern gegen Adversarial Samples Verknüpfung ICLR2017 In Richtung schnelle Berechnung der zertifizierten Robustheit für ReLU-Netzwerke Verknüpfung ICML2018
Stichworte:
AI ,
Deep Learning ,
DNN ,
Künstliche Intelligenz ,
Testing
Neueste Kommentare