import torch
import time
# Taille du vecteur
num_elements = 1000000
# Créer un vecteur sur le GPU
vector_gpu = vector_cpu.to('cuda') # Déplacer le vecteur vers le GPU
# Fonction pour calculer le max sur le GPU
def max_gpu(vector):
return [Link](vector)
# Mesure du temps pour le calcul sur GPU
start_gpu = [Link]()
gpu_max = max_gpu(vector_gpu)
[Link]() # Synchronisation pour s'assurer que le
calcul est terminé
end_gpu = [Link]()
gpu_time = end_gpu - start_gpu
# Affichage des résultats
print(f"Max (GPU): {gpu_max.item()}") # .item() pour obtenir la
valeur scalaire
print(f"Temps d'exécution sur GPU: {gpu_time:.6f} secondes")
Max (GPU): 999999.0
Temps d'exécution sur GPU: 0.000397 secondes
import torch
import time
# Taille du vecteur
num_elements = 1000000
# Création d'un vecteur aléatoire sur le CPU
vector_cpu = [Link](num_elements, dtype=torch.float32)
# Fonction pour calculer le max sur le CPU
def max_cpu(vector):
return [Link](vector)
# Créer un vecteur sur le GPU
# Mesure du temps pour le calcul sur CPU
start_cpu = [Link]()
cpu_max = max_cpu(vector_cpu)
end_cpu = [Link]()
cpu_time = end_cpu - start_cpu
# Affichage des résultats
print(f"Max (CPU): {cpu_max.item()}") # .item() pour obtenir la
valeur scalaire
print(f"Temps d'exécution sur CPU: {cpu_time:.6f} secondes")
Max (CPU): 999999.0
Temps d'exécution sur CPU: 0.012826 secondes