public cloud compute  gpu

Servers speciaal ontworpen voor massively parallel computing

De GPU instances zijn uitgerust met krachtige grafische processors van NVIDIA om te voldoen aan de vereisten van massively parallel computing. Als deel van OVHcloud bieden ze voordelen als on-demand resources en facturering op uurbasis. Dit zijn servers die beantwoorden aan de behoeften van machine learning en deep learning.

Gebaseerd op NVIDIA Tesla V100

Deze GPU, die een van de krachtigste op de markt is, is ontworpen voor gebruik in een datacenter. Hij versnelt berekeningen in bereiken als artificiële intelligence (AI) en grafische berekeningen.

NVIDIA GPU Cloud

Om optimaal gebruiksgemak te leveren, bieden OVH en NVIDIA samen een ultiem krachtig, GPU-versneld platform aan voor deep learning, high-performance computing en artificiële intelligentie. Dit is de gemakkelijkste manier om GPU-versnelde containersystemen te implementeren en onderhouden via een uitgebreid assortiment. Meer informatie

Van 1 tot 4 kaarten met gegarandeerde prestaties

De Tesla kaarten worden direct zonder virtualisatielaag aan de instance geleverd via PCI Passthrough, zodat hun totale kracht gereserveerd is voor uw gebruik. Daarnaast kunnen tot maximaal 4 kaarten gekoppeld worden om hun prestaties te bundelen. Zo levert het materieel zijn volledige rekencapaciteit voor uw applicatie.

Eigenschappen van de NVIDIA Tesla V100

Prestaties met NVIDIA GPU Boost

Bandbreedte van bidirectionele verbinding

CoWoS Stacked HBM2 Geheugen
  • dubbele precisie, 7 teraFLOPS;
  • enkele precisie, 14 teraFLOPS;
  • deep learning 112 teraFLOPS.
  • PCIe 32 GB/s.
  • capaciteit, 16 GB HBM2;
  • bandbreedte, 900 GB/s.

 

Use case

Beeldherkenning

Informatie uit afbeeldingen halen om ze in te delen, een onderdeel te identificeren of rijkere documenten te maken is in veel domeinen noodzakelijk. Medische beeldvorming, sociale netwerken, bescherming en publieke veiligheid... dankzij frameworks als Caffe2 gekoppeld aan de Tesla V100 GPU wordt dit mogelijk en zelfs makkelijk toegankelijk.

Situatieanalyse

Realtime is in bepaalde gevallen noodzakelijk, daar waar een passende reactie verwacht wordt op wisselende en onvoorspelbare situaties. Dit soort eisen treft men bijvoorbeeld aan bij zelfrijdende auto‘s of bij de analyse van internetdataverkeer. Daar wordt deep learning ingezet om neuronale netwerken te vormen die door middel van een trainingsetappe zelf leren.

Menselijke interactie

In het verleden heeft de mens geleerd met de machines te communiceren. Nu zijn we in het tijdperk waar de machines met de mens leren te communiceren. Of het nu gaat om stemherkenning of het identificeren van emoties met beeld en geluid, tools als Tensorflow schuiven de grenzen van deze interacties steeds verder op en openen een veelvoud aan nieuwe toepassingen.

Starten?

Maak een account aan en start uw services binnen een minuut

Starten

Gebruik

1

Starten

Start uw instance door het juiste T1-model en NGC-image te selecteren.

2

Configureren

$ docker pull nvcr.io/nvidia/tensorflow
$ nvidia-docker run nvidia/tensorflow t1

3

Gebruiken

Uw AI-framework is klaar om berekeningen te starten.

tarif public cloud

Facturatie van GPU

De GPU instances worden net als al onze andere instances pay-as-you-go aan het eind van elke maand gefactureerd. De prijs is afhankelijk van de grootte van de gestarte instance en van de gebruiksduur.