Gebaut für KISchweizer Cloud mit NVIDIA GPUs

Betreibe grosse Sprachmodelle, trainiere Deep-Learning-Systeme und beschleunige Inferenz.
Mit NVIDIA RTX PRO 6000 Max-Q GPUs – direkt aus unseren Rechenzentren in der Schweiz.

AI & LLM
Ready

Perfekt für Training und Inferenz von Transformer-Modellen und modernen Deep-Learning-Workloads.

Schneller
Speicher

Lokale NVMe-SSDs sorgen für extrem schnellen Zugriff auf deine Trainingsdaten – von 200 GB bis 1'600 GB skalierbar.

Flexible
Infrastruktur

Starte VMs mit 1–4 RTX PRO 6000 Max-Q GPUs und passe die Kapazität jederzeit an. Bereits ab weniger als 2.20 CHF pro Stunde.

MLOps und
DevOps Ready

Automatisiere Provisioning und Lifecycle deiner GPU-Server ganz einfach – GPUs as a Service.

Ideal für

  • Training und Fine-Tuning von LLMs
  • Inference für GenAI- und Vision-Modelle
  • GPU-Boost für NLP, Computer Vision und Deep Learning
  • Akademische wie auch kommerzielle KI-Forschung
  • Rendering und Simulation mit CUDA-Software

Performancedie skaliert

Optimiert für multi-GPU Skalierbarkeit – bis zu vier GPUs pro Instanz. Basierend auf unseren "Dedicated CPU Cores" – volle Leistung garantiert. Speicher und CPUs lassen sich jederzeit skalieren. Alle verfügbaren Konfigurationen findest du in der Preisübersicht.

Dedicated GPU(s) RTX PRO 6000 Max-Q

  • 96 GB VRAM pro GPU
  • Blackwell-Architektur
  • Kompatibel mit CUDA, TensorRT, PyTorch & TensorFlow
Preise ansehen

Datensouveränität auch für AIDeine Workloads laufen ausschliesslich in Rechenzentren in der Schweiz. Damit deine Daten sicher im Land bleiben – für Rechtssicherheit, Datenschutz und tiefe Latenz.

Auch für regulierte BranchenWir unterstützen dich bei der Einhaltung relevanter Anforderungen. Neben der ISO/IEC-27001-Zertifizierung bieten wir auch einen ISAE-3000-Bericht.

Mehr zu Sicherheit & Compliance

FAQs

Kann ich LLM-Training oder Fine-Tuning-Jobs ausführen?Ja, absolut. Die NVIDIA RTX PRO 6000 Max-Q eignet sich hervorragend für LLM-Workloads, mit 96 GB VRAM und starker Multi-GPU-Skalierung – ideal für effizientes Training und Fine-Tuning.

Gibt es einen Mindestbezug?Nein. Die Abrechnung erfolgt sekundengenau. GPU-Server lassen sich bei Bedarf erstellen und wieder löschen. Du bezahlst nur für den tatsächlichen Service-Bezug – ganz so, wie du es von all unseren Cloud-Diensten kennst.

Kann ich meine GPU-Server automatisieren?Ja. Über unsere API oder den Terraform-Provider lässt sich alles nahtlos in DevOps- oder MLOps-Workflows einbinden. Die Bereitstellung und Verwaltung der GPU-Server lässt sich vollständig automatisieren.

Was ist mit NVIDIA A100, H100, L40S und H200-Karten?Aktuell setzen wir auf die RTX PRO 6000 Max-Q – wegen ihres starken Preis-Leistungs-Verhältnisses. Zwei RTX PRO 6000 Max-Q GPUs liefern in vielen Fällen eine vergleichbare Leistung zu günstigeren Kosten.

Unterstützt ihr grössere Setups oder GPU-Cluster?Ja. Mit Floating IPs (auch zwischen unseren geographisch getrennten Cloud-Standorten), privatem Networking und Load-Balancing kannst du Workloads verteilen, migrieren und skalieren – auch in Setups mit mehr als 4 RTX PRO 6000 Max-Q GPUs.

Für welche Use Cases eignen sich eure GPUs?Von Start-up-Experimenten bis zu grossen LLM-Inference-Setups in der Schweiz. Ein praxisnahes Beispiel findest du in unserem Blog-Post über die Installation von DeepSeek mit Ollama in unserer Cloud.

Einfach ausprobierenStarte jetzt deinen GPU-Server