Cloudscale Logo

Gebaut für KISchweizer Cloud mit L40S GPUs

Betreibe grosse Sprachmodelle, trainiere Deep-Learning-Systeme und beschleunige Inferenz.
Mit NVIDIA L40S GPUs – direkt aus unseren Rechenzentren in der Schweiz.

AI & LLM
Ready

Perfekt für Training und Inferenz von Transformer-Modellen und modernen Deep-Learning-Workloads.

Schneller
Speicher

Lokale NVMe-SSDs sorgen für extrem schnellen Zugriff auf deine Trainingsdaten – von 200 GB bis 1'600 GB skalierbar.

Flexible
Infrastruktur

Starte VMs mit 1–4 L40S GPUs und passe die Kapazität jederzeit an. Bereits ab weniger als 2.20 CHF pro Stunde.

MLOps und
DevOps Ready

Automatisiere Provisioning und Lifecycle deiner GPU-Server ganz einfach – GPUs as a Service.

Ideal für

  • Training und Fine-Tuning von LLMs
  • Inference für GenAI- und Vision-Modelle
  • GPU-Boost für NLP, Computer Vision und Deep Learning
  • Akademische wie auch kommerzielle KI-Forschung
  • Rendering und Simulation mit CUDA-Software

Performancedie skaliert

Optimiert für multi-GPU Skalierbarkeit – bis zu vier GPUs pro Instanz. Basierend auf unseren "Dedicated CPU Cores" – volle Leistung garantiert. Speicher und CPUs lassen sich jederzeit skalieren. Alle verfügbaren Konfigurationen findest du in der Preisübersicht.

Dedicated L40S GPUs

  • 48 GB VRAM pro GPU
  • Ada-Lovelace-Architektur
  • Kompatibel mit CUDA, TensorRT, PyTorch & TensorFlow
Preise ansehen

Datensouveränität auch für AIDeine Workloads laufen ausschliesslich in Rechenzentren in der Schweiz. Damit deine Daten sicher im Land bleiben – für Rechtssicherheit, Datenschutz und tiefe Latenz.

Auch für regulierte BranchenWir unterstützen dich bei der Einhaltung relevanter Anforderungen. Neben der ISO/IEC-27001-Zertifizierung bieten wir auch einen ISAE-3000-Bericht.

Mehr zu Sicherheit & Compliance

FAQs

Kann ich LLM-Training oder Fine-Tuning-Jobs ausführen?Ja, absolut. Die NVIDIA L40S eignet sich hervorragend für LLM-Workloads, mit 48 GB VRAM und starker Multi-GPU-Skalierung – ideal für effizientes Training und Fine-Tuning.

Gibt es einen Mindestbezug?Nein. Die Abrechnung erfolgt sekundengenau. GPU-Server lassen sich bei Bedarf erstellen und wieder löschen. Du bezahlst nur für den tatsächlichen Service-Bezug – ganz so, wie du es von all unseren Cloud-Diensten kennst.

Kann ich meine GPU-Server automatisieren?Ja. Über unsere API oder den Terraform-Provider lässt sich alles nahtlos in DevOps- oder MLOps-Workflows einbinden. Die Bereitstellung und Verwaltung der GPU-Server lässt sich vollständig automatisieren.

Was ist mit NVIDIA A100, H100, L40S und H200-Karten?Aktuell setzen wir auf die L40S – wegen ihres starken Preis-Leistungs-Verhältnisses. Zwei L40S GPUs liefern in vielen Fällen eine vergleichbare Leistung zu günstigeren Kosten.

Unterstützt ihr grössere Setups oder GPU-Cluster?Ja. Mit Floating IPs (auch zwischen unseren geographisch getrennten Cloud-Standorten), privatem Networking und Load-Balancing kannst du Workloads verteilen, migrieren und skalieren – auch in Setups mit mehr als 4 L40S GPUs.

Für welche Use Cases eignen sich eure GPUs?Von Start-up-Experimenten bis zu grossen LLM-Inference-Setups in der Schweiz. Ein praxisnahes Beispiel findest du in unserem Blog-Post über die Installation von DeepSeek mit Ollama in unserer Cloud.

Einfach ausprobierenStarte jetzt deinen GPU-Server