Das Bedürfnis nach Sicherheit durchdringt alle elektronischen Systeme. Doch angesichts des Wachstums des maschinellen Lernens in Rechenzentren, bei dem es um äußerst wertvolle Daten geht, legen einige Unternehmen besonderen Wert auf den sicheren Umgang mit diesen Daten.
Alle üblichen Sicherheitslösungen für Rechenzentren müssen zum Einsatz kommen, es sind jedoch zusätzliche Anstrengungen erforderlich, um sicherzustellen, dass Modelle und Datensätze bei der Speicherung geschützt sind, sowohl bei der Übertragung zu und von Beschleunigerblättern als auch bei der Verarbeitung auf einem Hostsystem mehr als ein Mandant gleichzeitig auf demselben Server.
„Inferenzmodelle, Inferenzalgorithmen, Trainingsmodelle und Trainingsdatensätze gelten als wertvolles geistiges Eigentum und müssen geschützt werden – insbesondere, da diese wertvollen Vermögenswerte an Rechenzentren zur Verarbeitung auf gemeinsam genutzten Ressourcen übergeben werden“, sagte Bart Stevens, Senior Director für Produktmarketing für Sicherheit IP bei Rambus, in einer aktuellen Präsentation.
Jede Manipulation von KI-Trainingsdaten kann zur Erstellung eines fehlerhaften Modells führen. Und jede Änderung an einem gut trainierten Modell kann dazu führen, dass die KI-Engine falsche Schlussfolgerungen zieht. „Alle drei Hauptarten des Lernens (überwachtes, unüberwachtes und verstärkendes Lernen) verwenden gewichtete Berechnungen, um ein Ergebnis zu erzielen“, sagte Gajinder Panesar, Fellow bei Siemens EDA. „Wenn diese Gewichtungen veraltet, beschädigt oder manipuliert sind, kann das Ergebnis einfach falsch sein.“
Die Auswirkungen eines Angriffs auf eine KI-Workload hängen von der Anwendung ab, aber das Ergebnis wird nie gut sein. Die Frage ist nur, ob es zu ernsthaften Schäden oder Verletzungen kommt.
Obwohl Angriffe im Mittelpunkt des Schutzes stehen, sind sie nicht die einzigen Bereiche, die Anlass zur Sorge geben. „Die ‚Bedrohungen‘ lassen sich in zwei große Kategorien einteilen – absichtliche Eingriffe durch einen böswilligen Akteur und unbeabsichtigte Probleme, die im Allgemeinen als Fehler entweder in der Hardware oder der Software betrachtet werden können“, sagte Panesar.
Das Sicherheitsfundament
Es gibt grundlegende Sicherheitskonzepte, die für jede Computerumgebung gelten, und KI-Computing bildet da keine Ausnahme. Während bestimmten Aspekten eines KI-Workloads besondere Aufmerksamkeit gewidmet werden muss, muss nicht nur dieser Workload geschützt werden. „Wir müssen über die Integrität des Betriebs des gesamten Systems nachdenken, nicht nur über den einzelnen Chip oder das On-Chip-Subsystem, mit dem wir es zu tun haben“, sagte Panesar.
Wie von Stevens dargelegt, gibt es vier Aspekte der Sicherheit, die berücksichtigt werden müssen. Erstens müssen die Daten und die Rechenleistung vertraulich bleiben. Zweitens sollte es einem Angreifer nicht möglich sein, die Daten jederzeit und überall zu verändern. Drittens muss bekannt sein, dass alle an der Datenverarbeitung beteiligten Entitäten authentisch sind. Und viertens sollte es einem Angreifer nicht möglich sein, den normalen Betrieb der Computerplattform zu stören.
Dies führt zu einigen grundlegenden Sicherheitskonzepten, die hoffentlich jedem bekannt sind, der sich mit dem Entwurf sicherer Systeme beschäftigt. Die erste davon ist der Schutz von Daten in drei Phasen:
1. Daten im Ruhezustand, einschließlich aller gespeicherten Daten;
2. Daten in Bewegung, wenn sie von einem Ort zum anderen kommuniziert werden, und
3. Verwendete Daten, die auf der Computerplattform aktiv und lebendig sind, während daran gearbeitet wird.
Eine weitere bekannte Anforderung ist die Trusted Execution Environment (TEE). Hierbei handelt es sich um eine Computerumgebung, die auf äußerst vertrauenswürdige Software beschränkt ist und für den Rest der Computerplattform nur über streng kontrollierte und vertrauenswürdige Kanäle zugänglich ist. Kritische Hardware oder andere Vermögenswerte, die nicht gefährdet werden können, werden in dieser Umgebung platziert und sind außerhalb des TEE nicht direkt zugänglich.
Das TEE bietet eine grundlegende Möglichkeit, kritische Sicherheitsvorgänge auf eine Weise zu handhaben, die weitaus weniger anfällig für Eingriffe durch externe Software ist. Es hält die Anwendungssoftware von Sicherheitsvorgängen auf niedrigerer Ebene getrennt. Es verwaltet außerdem den Startvorgang, um sicherzustellen, dass er sicher und zuverlässig abläuft, und erkennt alle Versuche, nicht authentischen Code zu starten.
Für ein sicheres Computing ist eine Vielzahl von Vorgängen erforderlich. Durch die Authentifizierung wird sichergestellt, dass die Entitäten, mit denen man kommuniziert, wirklich die sind, für die sie sich ausgeben. Durch die Verschlüsselung sind Daten vor neugierigen Blicken geschützt. Die Herkunft von Software und anderen Datenartefakten kann durch Hashing- und Signierungsvorgänge nachgewiesen werden. Und all diese Funktionen erfordern Schlüssel mit ausreichender Stärke, um vor Brute-Force-Hacking zu schützen, und das macht eine effektive Schlüsselbereitstellung und -verwaltung unerlässlich.
Zusätzlicher Schutz wird gewährleistet, indem sichergestellt wird, dass TEEs und andere kritische Sicherheitsschaltkreise vor Einbruchsversuchen oder Betriebsunterbrechungen geschützt sind. Seitenkanäle müssen geschützt werden, um sicherzustellen, dass es keine Möglichkeit gibt, Daten oder Schlüssel durch die Messung extern erkennbarer elektronischer Artefakte wie Strom oder elektromagnetische Strahlung auszuspionieren.
Und schließlich können Schaltkreise, die das interne Geschehen überwachen, eine weitere Schutzebene bieten, um einen Alarm auszulösen, wenn etwas Verdächtiges im Gange zu sein scheint.
Wenden Sie dies speziell auf die KI an
Die Sicherheit von KI-Workloads beginnt mit diesen grundlegenden Sicherheitsanforderungen, unabhängig davon, ob sie trainiert oder abgeleitet werden und ob dies in einem Rechenzentrum, einem lokalen Server oder in Edge-Geräten geschieht. Es gibt jedoch noch weitere spezifische Überlegungen zu KI-Workloads, die berücksichtigt werden müssen.
„Sichere KI-Implementierungen sind erforderlich, um die Extraktion oder den Diebstahl von Inferenzalgorithmen, Modellen und Parametern, Trainingsalgorithmen und Trainingssätzen zu verhindern“, erklärte Stevens. „Dies würde auch bedeuten, den unbeabsichtigten Ersatz dieser Vermögenswerte durch bösartige Algorithmen oder Datensätze zu verhindern. Dies würde verhindern, dass das System vergiftet wird, um die Inferenzergebnisse zu verändern und eine Fehlklassifizierung zu verursachen.“
Die neuen Hardwarearchitekturen für die KI-Verarbeitung stellen einen weiteren Teil des Systems dar, der geschützt werden muss. „Das Herzstück des Systems ist offensichtlich die Reihe leistungsstarker Beschleunigerchips, die von einer Handvoll bis zu einer großen Matrix dedizierter KI-Verarbeitungseinheiten mit eigenem Speicherpool und nur einer Aufgabe reichen, nämlich so viele Daten wie möglich zu verarbeiten.“ der kürzeste Zeitrahmen“, bemerkte Stevens.
Designer müssen zunächst die spezifischen Vermögenswerte berücksichtigen, die geschützt werden müssen. Am offensichtlichsten ist die Trainings- oder Inferenzhardware. „Typischerweise sieht man bei Blades eine Gateway-CPU mit dediziertem Flash und DDR“, sagte Stevens. „Seine Aufgabe besteht darin, Modelle zu verwalten und die Assets hinzuzufügen. und Kontrollbeschleuniger. Dann gibt es noch die Verbindung zur Fabric – ein Hochgeschwindigkeitsnetzwerk oder PCIe-4- oder -5-Schnittstellen. Einige Rotorblätter verfügen auch über proprietäre Verbindungen zwischen den Rotorblättern.“
Abb. 1: Ein verallgemeinertes KI-Blade für ein Rechenzentrum. Zusätzlich zur üblichen CPU, dem dynamischen Speicher und der Netzwerkverbindung übernehmen Beschleuniger die schwere Arbeit, unterstützt durch internes SRAM. Quelle: Rambus
Darüber hinaus gibt es verschiedene Arten von Daten, die geschützt werden müssen, und diese hängen davon ab, ob es sich bei der Operation um ein Training oder eine Schlussfolgerung handelt. Beim Training eines Modells müssen die Trainingsdatenbeispiele und das trainierte Basismodell geschützt werden. Beim Ableiten müssen das trainierte Modell, alle Gewichte, die Eingabedaten und die Ausgabeergebnisse geschützt werden.
Betrieblich handelt es sich hierbei um einen neuen, sich schnell entwickelnden Bereich, sodass ein Debuggen wahrscheinlich ist. Jedes Debug muss sicher durchgeführt werden – und alle Debugfunktionen müssen heruntergefahren werden, wenn sie nicht authentifiziert verwendet werden.
Und Änderungen am Code oder anderen Assets müssen in gut gesicherten Updates bereitgestellt werden. Insbesondere ist es wahrscheinlich, dass sich die Modelle im Laufe der Zeit verbessern. Es muss also eine Möglichkeit geben, alte Versionen durch neuere zu ersetzen und gleichzeitig zu verhindern, dass Unbefugte ein gültiges Modell durch ein unechtes Modell ersetzen.
„Sichere Firmware-Updates sowie die Möglichkeit, das System auf sichere Weise debuggen zu können, sind heutzutage von entscheidender Bedeutung“, bemerkte Stevens.
Risiken von Datenschutzverletzungen
Es liegt auf der Hand, dass die Daten vor Diebstahl geschützt werden müssen. Bei einem solchen Diebstahl handelt es sich eindeutig um einen Verstoß gegen die Vertraulichkeit, aber die Folgen sind noch schlimmer, wenn es um staatliche Vorschriften geht. Beispiele für solche Vorschriften sind die DSGVO-Regeln in Europa und die HIPAA-Gesundheitsvorschriften in den Vereinigten Staaten.
Doch neben reinem Diebstahl ist auch die Manipulation der Daten besorgniserregend. Beispielsweise könnten Trainingsdaten verändert werden, entweder um ein Geheimnis aufzudecken oder einfach, um das Training zu vergiften, sodass das resultierende Modell schlecht funktioniert.
Ein Großteil der Rechenarbeit – insbesondere beim Training eines Modells – wird in einem Rechenzentrum stattfinden, und dazu können Multi-Tenant-Server für einen kostengünstigeren Betrieb erforderlich sein. „Immer mehr Unternehmen und Teams verlassen sich aus verschiedenen Gründen auf gemeinsam genutzte Cloud-Computing-Ressourcen, vor allem aus Gründen der Skalierbarkeit und der Kosten“, beobachtete Dana Neustadter, Senior Product Marketing Manager für Security IP bei Synopsys.
Das bedeutet, dass mehrere Jobs gleichzeitig auf derselben Hardware vorhanden sind. Und doch müssen diese Jobs nicht weniger sicher ausgeführt werden, als wenn sie auf separaten Servern wären. Sie müssen durch Software so isoliert werden, dass verhindert wird, dass Daten oder andere Daten von einem Job zum anderen gelangen.
„Die Verlagerung der Datenverarbeitung in die Cloud kann potenzielle Sicherheitsrisiken mit sich bringen, wenn das System nicht mehr unter Ihrer Kontrolle steht“, sagte Neustadter. „Ob falsch oder böswillig, die Daten eines Benutzers können die Malware eines anderen Benutzers sein. Die Benutzer müssen darauf vertrauen, dass der Cloud-Anbieter Compliance-Standards einhält, Risikobewertungen durchführt, den Benutzerzugriff kontrolliert und so weiter.“
Die Containerisierung hilft normalerweise, Prozesse in einer mandantenfähigen Umgebung zu isolieren, es ist jedoch immer noch möglich, dass ein unerwünschter Prozess andere beeinträchtigt. „Ein Problem, das dazu führt, dass eine Anwendung Verarbeitungsressourcen beansprucht, kann sich auf andere Mandanten auswirken“, bemerkte Panesar. „Dies ist besonders wichtig in kritischen Umgebungen wie der medizinischen Berichterstattung oder überall dort, wo die Mieter ein verbindliches SLA (Service-Level-Agreement) haben.“
Auch wenn es keinen Einfluss auf das konkrete Ergebnis einer Berechnung oder die Vertraulichkeit von Daten hat, muss der Rechenzentrumsbetrieb sicherstellen, dass Verwaltungsvorgänge vor Manipulationen geschützt sind. „Auch Sicherheit sollte vorhanden sein, um eine ordnungsgemäße Abrechnung der Dienste zu gewährleisten und eine unethische Nutzung wie Racial Profiling zu verhindern“, betonte Stevens.
Neue Standards werden Entwicklern dabei helfen, sicherzustellen, dass sie alle notwendigen Grundlagen abdecken.
„Die Branche entwickelt Standards wie PCIe-Schnittstellensicherheit, wobei PCI-SIG eine Integritäts- und Datenverschlüsselungsspezifikation (IDE) vorantreibt, ergänzt durch Komponentenmessung und -authentifizierung (CMA) und vertrauenswürdige Ausführungsumgebungs-E/A (TEE-I/). O)“, sagte Neustadter. „Das Assignable Device Interface Security Protocol (ADISP) und andere Protokolle erweitern die Virtualisierungsfähigkeiten der vertrauenswürdigen virtuellen Maschinen, die verwendet werden, um vertrauliche Computer-Workloads von Hosting-Umgebungen isoliert zu halten, unterstützt durch starke Authentifizierung und Schlüsselverwaltung.“
Abb. 2: KI-Computing umfasst eine Reihe von Assets, und jedes davon hat spezifische Sicherheitsanforderungen. Quelle: Rambus
Schutzmaßnahmen umsetzen
In einer typischen KI-Computing-Umgebung müssen daher mehrere Schritte unternommen werden, um den Betrieb zu sperren. Sie beginnen mit einer Hardware Wurzel des Vertrauens (HRoT).
Ein HRoT ist eine vertrauenswürdige, undurchsichtige Umgebung, in der sichere Vorgänge wie Authentifizierung und Verschlüsselung durchgeführt werden können, ohne dass die verwendeten Schlüssel oder andere Geheimnisse preisgegeben werden. Es könnte eine kritische Komponente eines TEE sein. In einer klassischen Architektur sind sie normalerweise einem Prozessor zugeordnet, hier gibt es jedoch typischerweise mehr als ein Verarbeitungselement.
Insbesondere die neueren Hardwarechips für die KI-Verarbeitung verfügen nicht über integrierte Root-of-Trust-Funktionen. „Viele aktuelle KI/ML-Beschleunigerdesigns – insbesondere von Start-ups – haben sich hauptsächlich darauf konzentriert, die bestmögliche NPU-Verarbeitung an Bord zu bringen“, erklärte Stevens in einem Folgeinterview. „Sicherheit stand nicht im Vordergrund oder war nicht auf ihrem Radar.“
Das bedeutet, dass ein System an anderer Stelle einen HRoT bereitstellen muss, und dafür gibt es mehrere Möglichkeiten.
Ein Ansatz, der sich auf die genutzten Daten konzentriert, besteht darin, jedem Rechenelement – zum Beispiel dem Host-Chip und dem Beschleuniger-Chip – einen eigenen HRoT zu geben. Jeder HRoT würde seine eigenen Schlüssel verwalten und Operationen auf Anweisung des zugehörigen Prozessors ausführen. Sie können monolithisch auf SoCs integriert sein, obwohl dies derzeit bei neuronalen Prozessoren nicht der Fall ist.
Die andere Option, die sich auf Daten in Bewegung konzentriert, besteht darin, einen HRoT an der Netzwerkverbindung bereitzustellen, um sicherzustellen, dass alle in die Karte eingehenden Daten sauber sind. „Für Daten in Bewegung sind die Durchsatzanforderungen extrem hoch, bei sehr geringen Latenzanforderungen“, sagte Stevens. „Die Systeme verwenden ephemere Schlüssel, da sie typischerweise mit Sitzungsschlüsseln arbeiten.“
„Zur Authentifizierung müsste ein Blade eine bekommen Identifikationsnummer, was nicht unbedingt geheim gehalten werden muss“, fuhr er fort. „Es muss einfach einzigartig und unveränderlich sein. Es können viele IDs sein, eine für jeden Chip oder eine für das Blade oder Gerät selbst.“
Diese externen HRoTs werden möglicherweise nicht benötigt, wenn Sicherheit in zukünftige neuronale Verarbeitungseinheiten (NPUs) integriert wird. „Wenn sich die ersten NPU-Konzeptnachweise der Startups schließlich als erfolgreich erwiesen haben, wird die Architektur ihrer zweiten Variante dieser Designs über Root-of-Trust-Funktionen verfügen, die über mehr kryptografische Fähigkeiten verfügen, um die größeren Arbeitslasten zu bewältigen.“ fügte Stevens hinzu.
Daten, die vom SRAM zum DRAM oder umgekehrt übertragen werden, sollten ebenfalls verschlüsselt werden, um sicherzustellen, dass sie nicht ausspioniert werden können. Gleiches gilt für jede direkte seitliche Verbindung zu einer benachbarten Platine.
Wenn so viel Verschlüsselung in eine ohnehin schon aufwändige Berechnung eingebettet ist, besteht die Gefahr, dass der Betrieb ins Stocken gerät. Ein sicherer Betrieb ist von entscheidender Bedeutung, aber es nützt niemandem, wenn er den Betrieb selbst lahmlegt.
„Die Netzwerk- oder PCI-Express-Verbindung zur Fabric sollte durch den Einsatz einer L2- oder L3-Protokoll-fähigen Sicherheitspaket-Engine mit hohem Durchsatz geschützt werden“, fügte Stevens hinzu. „Eine solche Paket-Engine erfordert wenig Unterstützung von der CPU.“
Dies kann auch für die Speicher- und Blade-to-Blade-Verkehrsverschlüsselung gelten. „Der Inhalt des Gateway-CPU-DDR und der lokalen KI-Beschleuniger-GDDRs kann durch eine Inline-Speicherverschlüsselungs-Engine geschützt werden“, sagte er. „Wenn ein dedizierter Blade-zu-Blade-Seitenkanal vorhanden ist, kann dieser durch AES-GCM mit hohem Durchsatz geschützt werden [Galois / Counter-Modus] Link-Verschlüsselungsbeschleuniger.“
Schließlich können standardmäßige Sicherheitsmaßnahmen durch eine kontinuierliche Überwachung untermauert werden, die den tatsächlichen Betrieb verfolgt. „Sie müssen Informationen von der Hardware sammeln, die Ihnen Aufschluss darüber geben, wie sich das System verhält“, sagte Panesar. „Dies muss in Echtzeit, unmittelbar und langfristig statistisch erfolgen. Es muss außerdem verständlich (sei es für einen Menschen oder eine Maschine) und umsetzbar sein. Temperatur-, Spannungs- und Timing-Daten sind alles sehr gut, aber Sie benötigen auch übergeordnete, komplexere Informationen.“
Dies ist jedoch kein Ersatz für strenge Sicherheitsvorkehrungen. „Das Ziel besteht darin, Probleme zu identifizieren, die sich konventionellen Sicherheitsmaßnahmen entziehen könnten – aber es ist kein Ersatz für einen solchen Schutz“, fügte er hinzu.
Es liegt harte Arbeit vor uns
Diese Elemente sind nicht unbedingt einfach zu implementieren. Das erfordert harte Arbeit. „Ausfallsicherheit, die Fähigkeit, ein System sicher zu aktualisieren und die Fähigkeit, sich nach einem erfolgreichen Angriff wiederherzustellen, sind echte Herausforderungen“, bemerkte Mike Borza, Security-IP-Architekt bei Synopsys. „Solche Systeme zu bauen ist sehr, sehr schwierig.“
Da KI-Computing jedoch immer mehr zur Routine wird, werden Ingenieure, die keine Spezialisten für Datenmodellierung oder Sicherheit sind, zunehmend auf ML-Dienste zurückgreifen, wenn sie KI in ihre Anwendungen integrieren. Sie müssen sich auf die Infrastruktur verlassen können und ihre wichtigen Daten sorgfältig verwalten, damit die Modelle und Berechnungen, die sie zur Differenzierung ihrer Produkte verwenden, nicht in die falschen Hände geraten.
Verbunden
Sicherheitskompromisse bei Chips und KI-Systemen
Experten am Tisch: Wie sich Sicherheit auf Leistung und Leistung auswirkt, warum KI-Systeme so schwer zu sichern sind und warum der Datenschutz eine wachsende Rolle spielt.
Sicherheitsforschungsbits
Neue technische Sicherheitspapiere wurden auf dem USENIX-Sicherheitssymposium am 21. August vorgestellt.
Immer aktiv, immer gefährdet
Bedenken hinsichtlich der Chipsicherheit nehmen mit mehr Verarbeitungselementen, automatischem Aufwecken, Over-the-Air-Updates und besserer Konnektivität zu.
Wissenszentrum für Sicherheit
Top-Storys, Whitepapers, Blogs, Videos zum Thema Hardware-Sicherheit
KI-Wissenszentrum
Quelle: https://semiengineering.com/ai-ml-workloads-need-extra-security/
- Beschleuniger
- Beschleuniger
- Zugang
- Konto
- aktiv
- Zusätzliche
- Zustimmung
- AI
- KI-Training
- Algorithmen
- Alle
- Zulassen
- Anwendung
- Anwendungen
- Architektur
- Bereich
- Details
- Anschläge
- AUGUST
- Authentic
- Authentifizierung
- Rechnungs-
- KLINGE
- Blogs
- Tafel
- Verletzung
- Bugs
- österreichische Unternehmen
- Verursachen
- Kanäle
- Chip
- Pommes frites
- Cloud
- Cloud Computing
- Code
- Unternehmen
- Compliance
- Komponente
- Computing
- Verbindung
- Konnektivität
- Inhalt
- Paar
- technische Daten
- Data Center
- Rechenzentren
- Behandlung
- Angebote
- Design
- Entwickler
- Direktor
- Störung
- Fahren
- Edge
- Effektiv
- Verschlüsselung
- Ingenieure
- Arbeitsumfeld
- Ausrüstung
- Europa
- Ausführung
- Erweitern Sie die Funktionalität der
- zusätzliche Sicherheit
- Extraktion
- Stoff
- Feige
- Endlich
- Vorname
- Blinken (Flash)
- Setzen Sie mit Achtsamkeit
- Zukunft
- DSGVO
- gut
- der Regierung
- persönlichem Wachstum
- Wachstum
- Hacking
- Handling
- Hardware
- Hashing
- hier
- High
- Hosting
- Ultraschall
- HTTPS
- identifizieren
- Energiegewinnung
- Information
- Infrastruktur
- geistiges Eigentum
- Interview
- beteiligt
- IP
- IT
- Job
- Jobs
- Wesentliche
- Tasten
- Wissen
- grosse
- lernen
- Limitiert
- LINK
- aus einer regionalen
- Maschinen
- Malware
- Management
- Manipulation
- Marketing
- Matrix
- sowie medizinische
- ML
- Modell
- Modellieren
- Überwachung
- Netzwerk
- Neural
- Einkauf & Prozesse
- Option
- Optionen
- Andere
- Anders
- Leistung
- Plattform
- Gift
- Pool
- Werkzeuge
- Gegenwart
- Verhütung
- Datenschutz
- privat
- Produkt
- Produkte
- Resorts
- Risiken zu minimieren
- Sicherheit
- Rassenprofilierung
- Radar
- Strahlung
- erhöhen
- Angebot
- Echtzeit
- Gründe
- Entspannung
- Rechtliches
- Vorschriften
- Voraussetzungen:
- Forschungsprojekte
- Downloads
- REST
- Die Ergebnisse
- Risiko
- Ohne eine erfahrene Medienplanung zur Festlegung von Regeln und Strategien beschleunigt der programmatische Medieneinkauf einfach die Rate der verschwenderischen Ausgaben.
- safe
- Skalierbarkeit
- Sicherheitdienst
- Sicherheitsoperationen
- Leistungen
- von Locals geführtes
- Einfacher
- So
- Software
- Lösungen
- Wirbelsäule ... zu unterstützen.
- Normen
- Anfang
- Startups
- Staaten
- gestohlen
- Geschichten
- erfolgreich
- Support
- System
- Systeme und Techniken
- Technische
- Diebstahl
- Zeit
- verfolgen sind
- der Verkehr
- Ausbildung
- Vertrauen
- Vereinigt
- USA
- Aktualisierung
- Updates
- Nutzer
- Videos
- Assistent
- WHO
- Wikipedia
- .
- Arbeiten