LBNL leitet Projekt zur Quantendatenspeicherung und -visualisierung – Nachrichtenanalyse zum Hochleistungsrechnen | insideHPC

LBNL leitet Projekt zur Quantendatenspeicherung und -visualisierung – Nachrichtenanalyse zum Hochleistungsrechnen | insideHPC

Quellknoten: 2549068

Das Lawrence Berkeley National Laboratory hat bekannt gegeben, dass nationale Labor- und Universitätsforscher kürzlich zwei Papiere veröffentlicht haben, in denen sie neue Methoden der Datenspeicherung und -analyse vorstellen, um Quantencomputer praktischer zu machen, und untersuchen, wie Visualisierung zum Verständnis von Quantencomputern beiträgt.

„Diese Arbeit stellt bedeutende Fortschritte beim Verständnis und der Nutzung aktueller Quantengeräte für die Datenkodierung, -verarbeitung und -visualisierung dar“, sagte Talita Perciano, Forschungswissenschaftlerin in der Abteilung für wissenschaftliche Daten am Lawrence Berkeley National Laboratory und Leiterin dieser Bemühungen.

„Diese Beiträge bauen auf unseren vorherigen auf Bemühungen Hervorhebung der laufenden Erforschung und des Potenzials von Quantentechnologien bei der Gestaltung der wissenschaftlichen Datenanalyse und -visualisierung. Die Realisierung dieser Projekte unterstreicht die entscheidende Rolle der Teamarbeit, da jedes Mitglied seine einzigartige Expertise und Perspektive einbrachte. Diese Zusammenarbeit ist ein Beweis dafür, dass es im Quantenbereich, wie in vielen Aspekten des Lebens, beim Fortschritt nicht nur um individuelle Erfolge geht, sondern um die kollektive Anstrengung und die gemeinsame Vision des Teams.“

Laut ein Artikel Auf der LBNL-Website von Carol Pott sind neben Perciano auch Forscher der Scientific Data Division, der Applied Mathematics & Computational Research Division und des National Energy Research Scientific Computing Center (NERSC) in Zusammenarbeit mit Teams von an diesem Projekt beteiligt San Francisco State University (SFSU) und Case Western Reserve University.

Balance zwischen Klassik und Quantität

Die Zusammenarbeit: (Obere Reihe, von links nach rechts) Talita Perciano, Jan Balewski, Daan Camps. (Untere Reihe, von links nach rechts) Roel Van Beeumen, Mercy G. Amankwah, E. Wes Bethel

Der Fokus des Teams auf die Kodierung klassischer Daten zur Verwendung durch Quantenalgorithmen ist ein Sprungbrett für Fortschritte bei der Nutzung von Methoden der Quanteninformationswissenschaft und -technologie (QIST) als Teil von Grafiken und Visualisierung, die beide in der Vergangenheit rechenintensiv waren. „Das richtige Gleichgewicht zwischen den Fähigkeiten von QIST und klassischem Computing zu finden, ist eine große Forschungsherausforderung. Einerseits können Quantensysteme exponentiell größere Probleme bewältigen, wenn wir mehr Qubits hinzufügen. Auf der anderen Seite verfügen klassische Systeme und HPC-Plattformen über jahrzehntelange solide Forschung und Infrastruktur, stoßen jedoch bei der Skalierung an technologische Grenzen“, sagte Bethel. „Ein wahrscheinlicher Weg ist die Idee des hybriden klassischen Quantencomputings, bei dem klassische CPUs mit Quantenverarbeitungseinheiten (QPUs) kombiniert werden. Dieser Ansatz vereint das Beste aus beiden Welten und bietet spannende Möglichkeiten für spezifische wissenschaftliche Anwendungen.“

Das erste Papier, kürzlich in Nature Scientific Reports veröffentlichtuntersucht, wie man klassische Daten in Quantensystemen kodiert und speichert, um die Analysefähigkeiten zu verbessern, und behandelt die beiden neuen Methoden und ihre Funktionsweise. QCrank kodiert Sätze reeller Zahlen in kontinuierliche Rotationen ausgewählter Qubits und ermöglicht so die Darstellung von mehr Daten auf weniger Platz. QBArt hingegen stellt Binärdaten direkt als eine Reihe von Nullen und Einsen dar, die auf reine Null- und Eins-Qubit-Zustände abgebildet werden, was die Durchführung von Berechnungen an den Daten erleichtert.

Im zweiten AufsatzDas Team befasste sich intensiv mit der Interaktion zwischen Visualisierung und Quantencomputing und zeigte, wie Visualisierung zum Quantencomputing beigetragen hat, indem es die grafische Darstellung komplexer Quantenzustände ermöglichte, und untersuchte die potenziellen Vorteile und Herausforderungen der Integration von Quantencomputing in den Bereich der visuellen Datenexploration und -analyse . Bei der wissenschaftlichen Erforschung ermöglicht die Visualisierung Forschern, das Unbekannte zu erforschen und „das Unsichtbare zu sehen“ und abstrakte Informationen effektiv in leicht verständliche Bilder zu übertragen.

Das Team testete seine Methoden auf NISQ-Quantenhardware mit verschiedenen Arten von Datenverarbeitungsaufgaben, wie dem Abgleichen von Mustern in der DNA, der Berechnung des Abstands zwischen Folgen von ganzen Zahlen, der Manipulation einer Folge komplexer Zahlen sowie dem Schreiben und Abrufen von Bildern aus binären Pixeln. Das Team führte diese Tests mit einem Quantenprozessor namens Quantinuum H1-1 sowie anderen über IBMQ und IonQ erhältlichen Quantenprozessoren durch. Quantenalgorithmen, die so große Datenmengen als einzelne Schaltung auf NISQ-Geräten verarbeiten, weisen häufig eine sehr schlechte Leistung auf oder liefern eine völlig zufällige Ausgabe. Die Autoren zeigten, dass ihre neuen Methoden beim Einsatz solcher Hardware bemerkenswert genaue Ergebnisse lieferten.

Umgang mit Datenkodierung und Übersprechen

Beim Entwerfen und Implementieren von Quantenalgorithmen zur Verarbeitung klassischer Daten entsteht eine große Herausforderung, das sogenannte Datenkodierungsproblem, bei dem es darum geht, klassische Daten in eine Form umzuwandeln, mit der ein Quantencomputer arbeiten kann. Während des Kodierungsprozesses gibt es einen Kompromiss zwischen der effizienten Nutzung von Quantenressourcen und der Aufrechterhaltung der Rechenkomplexität der Algorithmen, die so einfach zu handhaben ist.

„Der Schwerpunkt lag auf dem Ausgleich der aktuellen Einschränkungen der Quantenhardware. Einige mathematisch solide Kodierungsmethoden verwenden so viele Schritte oder Quantengatter, dass das Quantensystem die anfänglichen Informationen verliert, bevor es überhaupt das endgültige Gatter erreicht. Dadurch bleibt keine Möglichkeit, die kodierten Daten korrekt zu berechnen“, sagte Jan Balewski, Berater bei NERSC und Erstautor des Scientific Reports-Papiers. „Um dieses Problem anzugehen, haben wir das Schema entwickelt, eine lange Sequenz in viele parallele Codierungsströme aufzuteilen.“

Leider führte diese Methode zu einem neuen Problem, dem Übersprechen zwischen Streams, das die gespeicherten Informationen verzerrte. „Es ist, als würde man versuchen, mehreren Gesprächen in einem überfüllten Raum zuzuhören. Wenn sie sich überschneiden, wird es schwierig, die einzelnen Botschaften zu verstehen. In Datensystemen verzerrt Übersprechen Informationen und macht Erkenntnisse weniger genau“, sagte Balewski. „Wir haben das Übersprechen auf zwei Arten angegangen: Für QCrank haben wir einen Kalibrierungsschritt eingeführt; Für QBArt haben wir die in den Nachrichten verwendete Sprache vereinfacht. Die Reduzierung der Anzahl der verwendeten Token ist wie der Wechsel vom lateinischen Alphabet zum Morsecode – langsamer zu senden, aber weniger anfällig für Verzerrungen.“

Diese Forschung führt zwei bedeutende Fortschritte ein, die die Kodierung und Analyse von Quantendaten praktischer machen. Erstens reduzieren pUCR-Schaltkreise (Parallel Uniformly Controlled Rotation) die Komplexität von Quantenschaltkreisen im Vergleich zu früheren Methoden drastisch. Diese Schaltkreise ermöglichen die gleichzeitige Ausführung mehrerer Vorgänge und eignen sich daher gut für Quantenprozessoren wie das H1-1-Gerät von Quantinuum mit hoher Konnektivität und Unterstützung für die parallele Gate-Ausführung. Zweitens stellt die Studie QCrank und QBArt vor, die beiden Datenkodierungstechniken, die pUCR-Schaltkreise nutzen: QCrank kodiert kontinuierliche reale Daten als Rotationswinkel und QBArt kodiert ganzzahlige Daten in binärer Form. Die Forschung präsentiert auch eine Reihe von Experimenten, die mit IonQ- und IBMQ-Quantenprozessoren durchgeführt wurden und eine erfolgreiche Kodierung und Analyse von Quantendaten in einem größeren Maßstab als bisher demonstrieren. Diese Experimente beinhalten auch neue Strategien zur Fehlerminderung, um verrauschte Hardware-Ergebnisse zu korrigieren und so die Zuverlässigkeit der Berechnungen zu erhöhen.

Die mit QCrank durchgeführten Experimente zeigen vielversprechende Ergebnisse: 384 Schwarzweißpixel auf 12 Qubits wurden erfolgreich kodiert und abgerufen, wobei die Informationen mit einem hohen Maß an Genauigkeit wiederhergestellt wurden (Abbildung 1). Bemerkenswert ist, dass dieses Bild das größte Bild darstellt, das jemals erfolgreich auf einem Quantengerät kodiert wurde, was es als bahnbrechende Leistung darstellt. Das Speichern desselben Bildes auf einem klassischen Computer würde 384 Bit erfordern, was ihn im Vergleich zu einem Quantencomputer 30-mal weniger effizient macht. Da die Kapazität des Quantensystems exponentiell mit der Anzahl der Qubits wächst, könnten beispielsweise nur 35 Qubits auf einem idealen Quantencomputer die gesamten 150 Gigabyte an DNA-Informationen enthalten, die im menschlichen Genom enthalten sind.

Mit QBArt durchgeführte Experimente zeigten seine bemerkenswerte Fähigkeit, verschiedene Datensequenzen, von komplizierten DNA-Sequenzen (Abbildung 2) bis hin zu komplexen Zahlen, mit nahezu perfekter Wiedergabetreue zu kodieren und zu verarbeiten. Darüber hinaus befasst sich die Studie mit der Leistungsbewertung verschiedener Quantenprozessoren bei der Kodierung binärer Daten und enthüllt die außergewöhnlichen Fähigkeiten ionenfallenbasierter Prozessoren für Aufgaben, die auf den pUCR-Schaltkreisen basieren. Diese Erkenntnisse bereiten nicht nur den Weg für tiefergehende Untersuchungen der Anwendungen kompakter, paralleler Schaltkreise in verschiedenen Quantenalgorithmen und hybriden quantenklassischen Algorithmen; Sie ebnen auch den Weg für spannende Fortschritte bei zukünftigen quantenmechanischen Lern- und Datenverarbeitungsaufgaben.

„Unser Team, das sich an der Spitze des Quantencomputings bewegt, wird von aufstrebenden Talenten angetrieben und erforscht theoretische Fortschritte, indem es unsere Datenkodierungsmethoden nutzt, um ein breites Spektrum an Analyseaufgaben zu bewältigen. Diese neuartigen Ansätze versprechen die Erschließung analytischer Fähigkeiten in einem Ausmaß, wie wir es bei NISQ-Geräten noch nie zuvor gesehen haben“, sagte Perciano. „Durch den Einsatz von HPC und Quantenhardware wollen wir den Horizont der Quantencomputing-Forschung erweitern und uns vorstellen, wie Quantenmethoden die Problemlösungsmethoden in verschiedenen wissenschaftlichen Bereichen revolutionieren können. Während sich Quantenhardware weiterentwickelt, glauben wir alle im Forschungsteam an ihr Potenzial für Praktikabilität und Nützlichkeit als leistungsstarkes Werkzeug für die Analyse und Visualisierung wissenschaftlicher Daten in großem Maßstab.“

Angesichts des jüngsten Aufrufs zum Aufbau und zur Ausbildung einer Quantenarbeitskräfte suchen viele Organisationen, darunter das US-Energieministerium (DOE), nach Möglichkeiten, die Forschung voranzutreiben und neue Algorithmen, Systeme und Softwareumgebungen für QIST zu entwickeln. Zu diesem Zweck nutzt die laufende Zusammenarbeit des Berkeley Lab mit der SFSU, einer Minderheiteneinrichtung, die Bemühungen des Labors im Bereich QIST und erweitert die bestehenden Lehrpläne der SFSU um neue, auf QIST ausgerichtete Kurs- und Schulungsmöglichkeiten. Der SFSU-Assoziierte Professor Wes Bethel, früher leitender Informatiker am Berkeley Lab, leitete die Aufgabe, eine neue Generation von Absolventen des SFSU Computing Science-Masters hervorzubringen, von denen viele aus unterrepräsentierten Gruppen stammen und deren Abschlussarbeiten sich auf QIST-Themen konzentrierten.

Mercy Amankwah, Ph.D. Studentin an der Case Western University, ist seit Juni 2021 Teil dieser Zusammenarbeit und widmet jährlich 12 Wochen ihrer Sommerferien der Teilnahme am Sustainable Research Pathways-Programm, einer Partnerschaft zwischen Berkeley Lab und dem Sustainable Horizons Institute. Amankwah nutzte ihr Fachwissen in der linearen Algebra, um das Design und die Manipulation von Quantenschaltkreisen zu erneuern und so die Effizienz zu erreichen, die sich das Team in zwei neuen Methoden erhofft hatte: QCrank und ABArt. Die Methoden nutzen die innovativen Techniken des Teams zur Kodierung von Daten für Quantencomputer. „Die Arbeit, die wir leisten, ist wirklich faszinierend“, sagte Amankwah. „Es ist eine Reise, die uns ständig dazu drängt, über die nächsten großen Durchbrüche nachzudenken. Ich freue mich schon darauf, zu Beginn meiner Post-Doktorarbeit noch wirkungsvollere Beiträge auf diesem Gebiet zu leisten. Karriere-Abenteuer.“

Diese Forschung wurde vom Office of Advanced Scientific Computing Research (ASCR) Exploratory Research for Extreme-Scale Science des US-Energieministeriums (DOE), dem Sustainable Horizons Institute und dem Lab Directed Research and Development Program des Berkeley Lab unterstützt und nutzte Rechenressourcen bei NERSC und die Oak Ridge Leadership Computing Facility.

Zeitstempel:

Mehr von Innerhalb HPC