Deutsch
 
Hilfe Datenschutzhinweis Impressum
  DetailsucheBrowse

Datensatz

DATENSATZ AKTIONENEXPORT
  Optimizing ZX-Diagrams with Deep Reinforcement Learning

Nägele, M., & Marquardt, F. (2023). Optimizing ZX-Diagrams with Deep Reinforcement Learning. arXiv, 2311.18588.

Item is

Basisdaten

einblenden: ausblenden:
Genre: Forschungspapier

Dateien

einblenden: Dateien
ausblenden: Dateien
:
2311.18588.pdf (beliebiger Volltext), 2MB
Name:
2311.18588.pdf
Beschreibung:
File downloaded from arXiv at 2023-12-18 10:20
OA-Status:
Keine Angabe
Sichtbarkeit:
Öffentlich
MIME-Typ / Prüfsumme:
application/pdf / [MD5]
Technische Metadaten:
Copyright Datum:
-
Copyright Info:
-
:
Bildschirmfoto 2023-12-18 um 10.23.31.png (Ergänzendes Material), 18KB
Name:
Bildschirmfoto 2023-12-18 um 10.23.31.png
Beschreibung:
-
OA-Status:
Keine Angabe
Sichtbarkeit:
Öffentlich
MIME-Typ / Prüfsumme:
image/png / [MD5]
Technische Metadaten:
Copyright Datum:
-
Copyright Info:
-
Lizenz:
-

Externe Referenzen

einblenden:

Urheber

einblenden:
ausblenden:
 Urheber:
Nägele, Maximilian1, Autor
Marquardt, Florian1, Autor           
Affiliations:
1Marquardt Division, Max Planck Institute for the Science of Light, Max Planck Society, ou_2421700              

Inhalt

einblenden:
ausblenden:
Schlagwörter: Quantum Physics, quant-ph,Computer Science, Learning, cs.LG
 Zusammenfassung: ZX-diagrams are a powerful graphical language for the description of quantum processes with applications in fundamental quantum mechanics, quantum circuit optimization, tensor network simulation, and many more. The utility of ZX-diagrams relies on a set of local transformation rules that can be applied to them without changing the underlying quantum process they describe. These rules can be exploited to optimize the structure of ZX-diagrams for a range of applications. However, finding an optimal sequence of transformation rules is generally an open problem. In this work, we bring together ZX-diagrams with reinforcement learning, a machine learning technique designed to discover an optimal sequence of actions in a decision-making problem and show that a trained reinforcement learning agent can significantly outperform other optimization techniques like a greedy strategy or simulated annealing. The use of graph neural networks to encode the policy of the agent enables generalization to diagrams much bigger than seen during the training phase.

Details

einblenden:
ausblenden:
Sprache(n):
 Datum: 2023-11-302023-11-30
 Publikationsstatus: Online veröffentlicht
 Seiten: 12 pages, 7 figures
 Ort, Verlag, Ausgabe: -
 Inhaltsverzeichnis: -
 Art der Begutachtung: -
 Identifikatoren: arXiv: 2311.18588
 Art des Abschluß: -

Veranstaltung

einblenden:

Entscheidung

einblenden:

Projektinformation

einblenden:

Quelle 1

einblenden:
ausblenden:
Titel: arXiv
Genre der Quelle: Kommentar
 Urheber:
Affiliations:
Ort, Verlag, Ausgabe: -
Seiten: - Band / Heft: - Artikelnummer: 2311.18588 Start- / Endseite: - Identifikator: -