Literatur zur DNN-Verifizierung und -Tests
Dr.-Ing. Sorin Liviu Jurj Donnerstag, 2. August 2018, 14:39
Für diejenigen von euch die Interesse an Deep Neural Networks haben, diese Literatur über DNN-Verifizierung und -Tests ist bestimmt sehr hilfreich. Viel Spaß beim Lesen!
DNN-Verifizierung und -Tests: Allgemeine AI-Sicherheitsprobleme
Titel | Verknüpfung |
Konkrete Probleme in der KI-Sicherheit | Verknüpfung |
Eine Analyse von ISO 26262: Sicheres maschinelles Lernen in Automotive-Software | Verknüpfung |
In Richtung eines Rahmens für hoch automatisierte Fahrzeugsicherheitsvalidierung | Verknüpfung |
Taktisches Sicherheitsdenken. Ein Fall für autonome Fahrzeuge | Verknüpfung |
Der Stand der Lösungen für die Sicherheit autonomer Systeme | Verknüpfung |
Nachdenken über die Sicherheit von lernfähigen Komponenten in autonomen Cyber-physischen Systemen | Verknüpfung |
Planung und Entscheidungsfindung für autonome Fahrzeuge | Verknüpfung |
Simulationsbasierte Testgenerierung für autonome Fahrzeuge mit maschinellen Lernkomponenten | Verknüpfung |
DNN-Verifizierung und -Tests: Angreifen von Feedforward-DNNs
Titel | Verknüpfung | Kommentar |
Erklären und Nutzen von kontradiktorischen Beispielen | Verknüpfung | |
DeepFool: eine einfache und genaue Methode, um tiefe neuronale Netzwerke zu täuschen | Verknüpfung | |
Die Grenzen des Deep Learning in kontradiktorischen Einstellungen | Verknüpfung | Euro S & P 2016 |
Tiefe neuronale Netze lassen sich leicht täuschen: Hohe Zuverlässigkeitsvorhersagen für nicht erkennbare Bilder | Verknüpfung | |
Auf dem Weg zur Robustheit neuronaler Netzwerke | Verknüpfung | S & P2017 |
Widersprüchliche Beispiele in der physischen Welt | Verknüpfung | |
Universal adversarial Perturbations | Verknüpfung | |
Übertragbarkeit im maschinellen Lernen: Von Phänomenen zu Black-Box-Attacken mit adversarischem Muster | Verknüpfung | |
Praktische Black-Box-Angriffe gegen maschinelles Lernen | Verknüpfung | |
Robuste Physical-World Angriffe auf Deep Learning-Modelle | Verknüpfung | |
KEIN ANGST BEACHTEN ÜBER VERGLEICHSBEISPIELE BEI DER OBJEKTERKENNUNG IN AUTONOMEN Vehikeln | Verknüpfung | |
Gegnerische Attacken mit Schwung ankurbeln | Verknüpfung | |
Kunst der singulären Vektoren und universellen kontradiktorischen Störungen | Verknüpfung | |
Generative Adversarial Perturbations | Verknüpfung | |
LaVAN: Lokalisierter und sichtbarer kontradiktorischer Lärm | Verknüpfung | ICML2018 |
Robuste kontrapunktische Beispiele synthetisieren | Verknüpfung | ICML2018 |
Black-Box Adversarial Attacks mit begrenzten Anfragen und Informationen | Verknüpfung | ICML2018 |
Robustheit der Klassifikatoren: von kontradiktorisch bis zufällig | Verknüpfung | NIPS2016 |
Binarisierte neuronale Netze angreifen | Verknüpfung | ICLR2018 |
Entscheiderbasierte Angriffe – Zuverlässige Angriffe gegen Black-Box-Machine-Learning-Modelle | Verknüpfung | ICLR2018 |
Natural Adversarial Beispiele generieren | Verknüpfung | ICLR2018 |
Räumlich transformierte kontradiktorische Beispiele | Verknüpfung | ICLR2018 |
Eine Basislinie zum Erkennen falsch klassifizierter und nicht-verteilter Beispiele in neuronalen Netzwerken | Verknüpfung | ICLR2017 |
Widersprüchliche Beispiele in der physischen Welt | Verknüpfung | ICLR2017 |
In Transferable Adversarial Beispiele und Black-Box-Attacken | Verknüpfung | ICLR2017 |
Adversarial Manipulation von tiefen Darstellungen | Verknüpfung | ICLR2016 |
Erklären und Nutzen von kontradiktorischen Beispielen | Verknüpfung | ICLR2015 |
Faszinierende Eigenschaften neuronaler Netze | Verknüpfung | ICLR2014 |
NAG: Netzwerk für die Gegnergeneration | Verknüpfung | CVPR2018 |
Generative Adversarial Perturbations | Verknüpfung | CVPR2018 |
Gegnerische Attacken mit Schwung ankurbeln | Verknüpfung | CVPR2018 |
Adverse Beispiele für semantische Segmentierung und Objekterkennung | Verknüpfung | ICCV2017 |
Adversarial Image Perturbation für den Datenschutz – Eine Spieltheorie Perspektive | Verknüpfung | ICCV2017 |
Universal Adversarial Perturbations Against Semantic Image Segmentierung | Verknüpfung | ICCV2017 |
Adversarial Beispiele Entdeckung in Deep Networks mit Convolutional Filter Statistics | Verknüpfung | ICCV2017 |
DNN Verification and Testing: Angriff auf rekursive Netzwerke
Titel | Verknüpfung | Kommentar |
Sparsame Kontroversen für Videos | Verknüpfung | |
Manipulierendes maschinelles Lernen: Vergiftung von Angriffen und Gegenmaßnahmen für das Regressionslernen | Verknüpfung | S & P2018 |
DNN Verification and Testing: Angriffe auf Netzwerke für verstärkendes Lernen
Titel | Verknüpfung | Kommentar |
Adverse Attacken auf Neural Network Policies | Verknüpfung | |
Tactics of Adversarial Angriff auf Deep Reinforcement Learning Agents | Verknüpfung | |
Sequentielle Angriffe auf Agenten für langfristige kontradiktorische Ziele | Verknüpfung | |
Robustes Adversarial-Verstärkungslernen | Verknüpfung | ICML2017 |
Robustes Adversarial-Verstärkungslernen | Verknüpfung | |
Robustes Tiefenverstärkungslernen mit feindlichen Angriffen | Verknüpfung | |
Herausforderungen bei der Überprüfung von Algorithmen für die Verstärkung des Lernens | Verknüpfung | |
DNN-Verifizierung und -Tests: Datasets
Titel | Verknüpfung | Kommentar |
Der ApolloScape-Datensatz für autonomes Fahren | Verknüpfung | |
BDD100K: Eine vielseitige Fahrvideo-Datenbank mit skalierbarem Anmerkungswerkzeug | Verknüpfung | |
WILDTRACK: Ein Multi-Kamera HD-Dataset für die dichte, unerklickte Fußgängererkennung | Verknüpfung | CVPR2018 |
4DFAB: Eine 4D-Datenbank für die Analyse von Gesichtsausdrücken und biometrische Anwendungen | Verknüpfung | CVPR2018 |
Wiederaufnahme von Oxford und Paris: Large-Scale Image Retrieval Benchmarking | Verknüpfung | CVPR2018 |
LiDAR-Video Driving Dataset: Effizientes Lernen von Fahrstrategien | Verknüpfung | CVPR2018 |
AVA: Ein Video-Dataset von spatio-temporal lokalisierten atomaren visuellen Aktionen | Verknüpfung | CVPR2018 |
In Richtung Fahrszene Verständnis: Ein Datensatz zum Erlernen des Fahrerverhaltens und der Ursachenzuweisung | Verknüpfung | CVPR2018 |
VegFru: Ein domänenspezifischer Datensatz für feingranulare visuelle Kategorisierung | Verknüpfung | ICCV2017 |
Need for Speed: Ein Benchmark für die Verfolgung von Objekten mit höherer Bildrate | Verknüpfung | ICCV2017 |
Für Benchmarks spielen | Verknüpfung | ICCV2017 |
TorontoCity: Die Welt mit einer Million Augen sehen | Verknüpfung | ICCV2017 |
DNN-Verifizierung und -Tests: Angriffstechniken
Titel | Verknüpfung | Kommentar |
Destillation als Verteidigung gegen feindselige Störungen gegen tiefe neuronale Netze | Verknüpfung | S & P2016 |
Parseval-Netzwerke: Verbesserung der Robustheit gegenüber kontradiktorischen Beispielen | Verknüpfung | |
MagNet: Eine zwei lange Verteidigung gegen kontradiktorische Beispiele | Verknüpfung | |
Deferting Adversarial Attacks mit Pixelablenkung | Verknüpfung | |
Verteidigung gegen Universal Adversarial Perturbations | Verknüpfung | |
Verteidigung gegen gegnerische Angriffe mit High-Level Representation Guided Denoiser | Verknüpfung | |
Zur Robustheit semantischer Segmentierungsmodelle gegen feindselige Angriffe | Verknüpfung | |
Geometrische Robustheit von tiefen Netzwerken: Analyse und Verbesserung | Verknüpfung | |
Nachweisbare Verteidigung gegen kontradiktorische Beispiele über das konvexe äußere kontradiktorische Polytop | Verknüpfung | ICML2018 |
Parseval-Netzwerke: Verbesserung der Robustheit gegenüber kontradiktorischen Beispielen | Verknüpfung | ICML2017 |
Feature Squeeze: Erkennen kontradiktorischer Beispiele in tiefen neuralen Netzwerken | Verknüpfung | NDSS2018 |
Zertifizierte Verteidigung gegen kontradiktorische Beispiele | Verknüpfung | ICLR2018 |
Kampf gegen feindliche Angriffe mit sparsamen Darstellungen | Verknüpfung | ICLR2018 |
Konfrontation von kontradiktorischen Bildern mit Eingabetransformationen | Verknüpfung | ICLR2018 |
Defense-GAN – Schutzklassifizierer gegen feindliche Angriffe mit generativen Modellen | Verknüpfung | ICLR2018 |
Ensemble Adversarial Training- Angriffe und Verteidigung | Verknüpfung | ICLR2018 |
Abschwächung adversarischer Effekte durch Randomisierung | Verknüpfung | ICLR2018 |
Stochastische Aktivierungsbeschneidung für robuste kontradiktorische Verteidigung | Verknüpfung | ICLR2018 |
Thermometer Codierung – eine heiße Möglichkeit, widersprüchliche Beispiele zu widerstehen | Verknüpfung | ICLR2018 |
Hin zu Deep-Learning-Modellen, die resistent gegen feindliche Angriffe sind | Verknüpfung | ICLR2018 |
Zum Erkennen feindseliger Störungen | Verknüpfung | ICLR2017 |
Widerstandsfähige tiefe neuronale Netzwerke mit einer Anwendung zur Malware-Erkennung | Verknüpfung | KDD2017 |
Zur Robustheit semantischer Segmentierungsmodelle gegen feindselige Angriffe | Verknüpfung | CVPR2018 |
Verteidigung gegen feindliche Angriffe mit hochrangiger Repräsentation Guided Denoiser | Verknüpfung | CVPR2018 |
Verteidigung gegen universale feindselige Störungen | Verknüpfung | CVPR2018 |
Feature Quantisierung für die Verteidigung gegen Verzerrung von Bildern | Verknüpfung | CVPR2018 |
Deferting Adversarial Attacks mit Pixelablenkung | Verknüpfung | CVPR2018 |
SafetyNet: Konfrontationsbeispiele ausfindig machen und ablehnen | Verknüpfung | ICCV2017 |
DNN-Verifizierung und -Tests: Interpretierbarkeit
Titel | Verknüpfung | Kommentar |
Der Mythos der Modellinterpretierbarkeit | Verknüpfung | |
Erklärung Methoden im Deep Learning: Benutzer, Werte, Anliegen und Herausforderungen | Verknüpfung | |
„Warum sollte ich Ihnen vertrauen?“: Die Vorhersagen jedes Klassifikators erklären | Verknüpfung | LIMETTE |
Wichtige Funktionen durch Propagierung von Aktivierungsunterschieden lernen | Verknüpfung | IMCL2017 – DeepLIFT |
Rationalisierung von neuronalen Vorhersagen | Verknüpfung | |
Interpretierbare Erklärungen von Black Boxes durch Meaningful Perturbation | Verknüpfung | |
Grad-CAM: Visuelle Erklärungen von Deep Networks über gradientenbasierte Lokalisierung | Verknüpfung | |
Methoden zum Interpretieren und Verstehen tiefer neuronaler Netze | Verknüpfung | |
Verstehen von Black-Box-Vorhersagen über Einflussfunktionen | Verknüpfung | ICML2017 |
Axiomatische Attribution für Deep Networks | Verknüpfung | ICML2017 |
Jenseits der Salienz: Verstehen von konvolutionellen neuronalen Netzen aus der Saliency-Vorhersage für schichtweise Relevanzpropagation | Verknüpfung | LRP |
Ein einheitlicher Ansatz zur Interpretation von Modellvorhersagen | Verknüpfung | NIPS2017, Shapley |
Erklärung und Rechtfertigung beim maschinellen Lernen: Eine Umfrage | Verknüpfung | |
Verwenden von Erläuterungen zum Verbessern der Zusammenfassung von visuellen Frageansagesystemen | Verknüpfung | |
Ein einfaches neuronales Netzwerkmodul für relationales Schließen | Verknüpfung | |
Beispiele sind nicht genug, lernen zu kritisieren! Kritik für die Interpretierbarkeit | Verknüpfung | NIPS2016 |
DeepVoting: Ein robustes und erklärbares Deep Network für die Semantic Part Detection unter Partial Okklusion | Verknüpfung | |
Lernen zu erklären: Eine informationstheoretische Perspektive auf Modellinterpretation | Verknüpfung | ICML2018 |
Variationale Informationsmaximierung für die Merkmalauswahl | Verknüpfung | |
Atari-Agenten visualisieren und verstehen | Verknüpfung | ICML2018 |
Interpretierbarkeit über die Merkmalzuordnung hinaus: Quantitatives Testen mit Konzeptaktivierungsvektoren (TCAV) | Verknüpfung | ICML2018 |
MINE: Mutual Information Neural Estimation | Verknüpfung | ICML2018 |
Verständnis der Darstellung und Berechnung von mehrschichtigen Perzeptrons: Eine Fallstudie zur Spracherkennung | Verknüpfung | ICML2017 |
Nonparanormal Information Estimation | Verknüpfung | ICML2017 |
Schätzung gegenseitiger Information für diskrete kontinuierliche Mischungen. | Verknüpfung | NIPS2017 |
Interpretierbare Verteilungsfunktionen mit maximaler Testleistung. | Verknüpfung | NIPS2016 |
Variationale Informationsmaximierung für die Merkmalauswahl. | Verknüpfung | NIPS2016 |
Effiziente nichtparametrische Glättungsschätzung. | Verknüpfung | NIPS2016 |
Finite-Sample-Analyse von Fixed-k Nearest Neighbor Density Functional Estimators. | Verknüpfung | NIPS2016 |
Lern Einflussfunktionen von unvollständigen Beobachtungen. | Verknüpfung | NIPS2016 |
Durchbrechen der Bandbreitenbarriere: Geometrische adaptive Entropieschätzung. | Verknüpfung | NIPS2016 |
Effiziente Schätzung der gegenseitigen Informationen für stark abhängige Variablen. | Verknüpfung | AISTATS2015 |
Schätzung der gegenseitigen Information durch lokale Gauß-Approximation. | Verknüpfung | UAI2015 |
Zum Lernen spärlicher boolescher Formeln zur Erklärung von AI-Entscheidungen. | Verknüpfung | NFM2017 |
Charakterisierung adversarischer Unterräume mit lokaler intrinsischer Dimensionalität | Verknüpfung | ICLR2018 |
Entscheidungsgrenzenanalyse von kontradiktorischen Beispielen | Verknüpfung | ICLR2018 |
Faszinierende Eigenschaften von kontradiktorischen Beispielen | Verknüpfung | ICLR2018 |
Robustheit von Klassifikatoren gegenüber universellen Störungen – eine geometrische Perspektive | Verknüpfung | ICLR2018 |
Zur Begrenzung lokaler intrinsischer Dimensionalität zur Charakterisierung der Unterräume von kontradiktorischen Beispielen | Verknüpfung | ICLR2018 |
Effiziente Darstellung von niederdimensionalen Mannigfaltigkeiten mit tiefen Netzwerken | Verknüpfung | ICLR2017 |
Um tiefes Lernen zu verstehen, muss die Verallgemeinerung überdacht werden | Verknüpfung | ICLR2017 |
Warum tiefe neuronale Netze für die Funktionsannäherung | Verknüpfung | ICLR2017 |
Tief in die CNN-Schichten eindringen – Auf der Suche nach CNNs, die eine Invarianz erreichen | Verknüpfung | ICLR2016 |
Datenrepräsentation und -kompression mit linear-programmierten Approximationen | Verknüpfung | ICLR2016 |
Die lokale Niedrigdimensionalität natürlicher Bilder | Verknüpfung | ICLR2015 |
Transformationseigenschaften gelernter visueller Repräsentationen | Verknüpfung | ICLR2015 |
Factorized Sparse Learning-Modelle mit interpretierbaren Interaktionen höherer Ordnung | Verknüpfung | KDD14 |
Interpretierbare Entscheidungssätze – Ein gemeinsamer Rahmen für Beschreibung und Vorhersage | Verknüpfung | KDD16 |
Interpretierbare Vorhersagen von Baum-basierten Ensembles mittels Actionable Feature Tweaking | Verknüpfung | KDD17 |
Verwendung von Zeitmustern zur Schätzung der Unsicherheit bei interpretierbaren frühen Entscheidungen | Verknüpfung | KDD14 |
Warum sollte ich Ihnen vertrauen – Erklären Sie die Vorhersagen eines Klassifikators | Verknüpfung | KDD16 |
Auf dem Weg zu einem mathematischen Verständnis der Lernschwierigkeiten mit vorwärtsgerichteten neuronalen Netzen | Verknüpfung | CVPR2018 |
Was sehen Deep Networks gerne? | Verknüpfung | CVPR2018 |
Perturbative neuronale Netze | Verknüpfung | CVPR2018 |
Empirische Untersuchung der Topologie und Geometrie von tiefen Netzwerken | Verknüpfung | CVPR2018 |
Net2Vec: Quantifizieren und Erklären, wie Konzepte durch Filter in tiefen neuronalen Netzen codiert werden | Verknüpfung | CVPR2018 |
Interpretierbare Convolutional Neural Networks | Verknüpfung | CVPR2018 |
Interpretieren Sie neuronale Netzwerke durch Identifizieren kritischer Datenroutingpfade | Verknüpfung | CVPR2018 |
Grad-CAM: Visuelle Erläuterungen aus Deep Networks über gradientenbasierte Lokalisierung | Verknüpfung | ICCV2017 |
Interpretierbares Lernen für selbstfahrende Autos durch Visualisierung von kausaler Aufmerksamkeit | Verknüpfung | ICCV2017 |
DNN-Verifizierung und -Tests: Interpretierbarkeit
Titel | Verknüpfung | Kommentar |
Sicheres modellbasiertes Reinforcement Learning mit Stabilitätsgarantien | Verknüpfung | NIPS2017 |
Sichere Exploration in Finite-Markov-Entscheidungsprozessen mit Gauß-Prozessen | Verknüpfung | NIPS2017 |
Adversarial Sphären | Verknüpfung | ICLR2018 |
Zertifizierung einiger Verteilungsrobustheit mit Principled Adversarial Training | Verknüpfung | ICLR2018 |
Ensemble Robustheit und Generalisierung von stochastischen Deep Learning Algorithmen | Verknüpfung | ICLR2018 |
Stabile Verteilungsausrichtung unter Verwendung des Zweiers der kontradiktorischen Distanz | Verknüpfung | ICLR2018 |
Adversarial Machine Learning im Maßstab | Verknüpfung | ICLR2017 |
Adversarial Trainingsmethoden für die semi-überwachte Textklassifikation | Verknüpfung | ICLR2017 |
EPOpt – Lernen von robusten neuronalen Netzwerkrichtlinien mithilfe von Modell-Ensembles | Verknüpfung | ICLR2017 |
Auf robusten Konzepten und kleinen neuronalen Netzen | Verknüpfung | ICLR2017 |
Engere Grenzen führen zu verbesserten Klassifikatoren | Verknüpfung | ICLR2017 |
Über die Stabilität von Deep Networks | Verknüpfung | ICLR2015 |
Geometrische Robustheit von tiefen Netzwerken: Analyse und Verbesserung | Verknüpfung | CVPR2018 |
Erhöhung der CNN-Robustheit gegenüber Okklusionen durch Reduzierung der Filterunterstützung | Verknüpfung | ICCV2017 |
DNN-Verifizierung und -Tests: Testtechniken
Titel | Verknüpfung | Kommentar |
Deepxplore: Automatisierter Whitebox-Test von Deep-Learning-Systemen | Verknüpfung | SOSP2017 |
DeepRoad: Gan-basierte Metamorphic Autonomous Driving System Testing | Verknüpfung | |
Testen von tiefen neuralen Netzwerken | Verknüpfung | |
Concolic Testing für tiefe neuronale Netze | Verknüpfung | |
DeepGauge: Umfassende und Multi-Granularitäts-Testkriterien für die Robustheit von Deep Learning-Systemen | Verknüpfung | |
DeepTest: Automatisiertes Testen von Deep-Neural-Network-gesteuerten autonomen Autos | Verknüpfung | VerifyML;ICSE2018 |
Identifizieren von Implementierungsfehlern in maschinell lernenden Bildklassifizierern unter Verwendung von Metamorphic Testing | Verknüpfung | ISSTA2018 |
Testen und Validieren maschineller Lernklassifizierer durch metamorphes Testen | Verknüpfung | JSS2011 |
Validieren eines tiefen Lernrahmens durch metamorphes Testen | Verknüpfung | MET2017 |
Automatisierte Direkte Fairness-Tests | Verknüpfung | |
Symbolische Ausführung für tiefe neuronale Netze | Verknüpfung | |
TensorFuzz: Debuggen von neuronalen Netzen mit Coverage-Guided Fuzzing | Verknüpfung | |
DNN-Verifizierung und -Tests: Verifikationstechniken
Titel | Verknüpfung | Kommentar |
Sicherheitsverifikation von tiefen neuralen Netzwerken | Verknüpfung | DLV;CAV2018 |
Reluplex: Ein effizienter SMT-Solver zur Überprüfung tiefer neuronaler Netze | Verknüpfung | CAV2018 |
Nachweisbare Verteidigung gegen kontradiktorische Beispiele über das konvexe äußere kontradiktorische Polytop | Verknüpfung | |
Formale Verifikation von stückweisen linearen Feed-Forward-Netzwerken | Verknüpfung | ATVA2017 |
Maximale Belastbarkeit künstlicher neuronaler Netze. | Verknüpfung | ATVA2017 |
Feature-Guided Black-Box-Sicherheitstests für tiefe neuronale Netze | Verknüpfung | SafeCV;TACAS2018 |
Verifikation von binarisierten neuronalen Netzwerken mittels Inter-Neuron Factoring | Verknüpfung | |
Eine einheitliche Ansicht der stückweisen linearen neuronalen Netzwerkverifizierung | Verknüpfung | |
Ausgabebereichsanalyse für tiefe neuronale Netzwerke | Verknüpfung | |
Ausgabebereichsanalyse für tiefgekoppelte neuronale Netze | Verknüpfung | NFM2018 |
Kompositorische Fälschung von Cyber-Physical Systems mit Machine Learning-Komponenten | Verknüpfung | NFM2017 |
Globale Robustheitsbewertung von tiefen neuronalen Netzen mit nachweisbaren Garantien für L0 Norm | Verknüpfung | L0-TRE |
Output Reachable Set Estimation und Verifikation für mehrschichtige neuronale Netze | Verknüpfung | |
Formale Sicherheitsanalyse neuronaler Netze mit symbolischen Intervallen | Verknüpfung | |
Erreichbare Schätzung und Überprüfung von neuronalen Netzwerkmodellen nichtlinearer dynamischer Systeme | Verknüpfung | |
AI2: Sicherheit und Robustheit Zertifizierung neuronaler Netze mit abstrakter Interpretation | Verknüpfung | S & P2018 |
Erreichbarkeitsanalyse von tiefen neuronalen Netzen mit nachweisbaren Garantien | Verknüpfung | DeepGO |
Bewertung der Robustheit neuronaler Netzwerke: Ein extremwerttheoretischer Ansatz | Verknüpfung | KLUG |
Extrahieren von Automaten aus rekurrenten neuronalen Netzen mit Hilfe von Abfragen und Gegenbeispielen | Verknüpfung | ICML2018 |
Lipschitz-Kontinuität im modellbasierten Bewehrungslernen | Verknüpfung | ICML2018 |
Differenzielle abstrakte Interpretation für nachweisbar robuste neuronale Netze | Verknüpfung | ICML2018 |
Globale Optimierung der Lipschitz-Funktionen | Verknüpfung | ICML2017 |
Ein Ranking-Ansatz zur globalen Optimierung | Verknüpfung | ICML2016 |
BASC: Anwenden der Bayes’schen Optimierung auf die Suche nach Global Minima auf potentiellen Energieoberflächen | Verknüpfung | ICML2016 |
Untergrenzen für die Robustheit gegenüber feindseligen Störungen | Verknüpfung | NIPS2017 |
Formelle Garantien für die Robustheit eines Klassifikators gegen feindliche Manipulationen | Verknüpfung | NIPS2017 |
Neuronale Netzwerk-Robustheit mit Einschränkungen messen | Verknüpfung | NIPS2017 |
Kontrollierbare Invarianz durch kontradiktorisches Merkmallernen. | Verknüpfung | NIPS2017 |
Formale Sicherheitsanalyse neuronaler Netze mit symbolischen Intervallen. | Verknüpfung | USENIX-Sicherheit 2018 |
Bewertung der Robustheit neuronaler Netze – ein extremwerttheoretischer Ansatz | Verknüpfung | ICLR2018 |
Ein theoretischer Rahmen für die Robustheit von (Deep) Classifiern gegen Adversarial Samples | Verknüpfung | ICLR2017 |
In Richtung schnelle Berechnung der zertifizierten Robustheit für ReLU-Netzwerke | Verknüpfung | ICML2018 |
Stichworte:
AI,
Deep Learning,
DNN,
Künstliche Intelligenz,
Testing
Neueste Kommentare