giovedì 09 maggio 2024 11:28 Mobile Tag_Search Network_Search Site_Map Feed_RSS 3dfxzone amdzone atizone nvidiazone unixzone forumzone enboard.3dfxzone
     
HWSetup.it
proudly powered by 3dfxzone.it
 
 
Home   |   News   |   Headlines   |   Articoli   |   Componenti   |   Schede Video   |   Applicazioni   |   Benchmark   |   Community   |   Redazione   |   Ricerca
Sei in: Home  News  CUDA 4.0 rende la programmazione in parallelo ancora più facile
CUDA 4.0 rende la programmazione in parallelo ancora più facile
a cura di Giacomo Usiello | pubblicato il 2 marzo 2011
Condividi su Facebook Condividi su Twitter Condividi su WhatsApp Condividi su reddit

NVIDIA ha annunciato la nuova versione del toolkit di NVIDIA CUDA per lo sviluppo di applicazioni di parallel computing che utilizzano la potenza delle GPU NVIDIA.

Il nuovo toolkit NVIDIA CUDA 4.0 è stato progettato per rendere ancora più semplice la programmazione in parallelo e consente a un numero ancora maggiore di sviluppatori di eseguire il porting delle loro applicazioni sulle GPU. Questo toolkit si fonda su tre caratteristiche principali:

  • La tecnologia NVIDIA GPUDirect 2.0 – supporta la comunicazione peer-to-peer tra le GPU all'interno di un singolo server o workstation. Questo semplifica e rende più rapida la programmazione multi-GPU e aumenta le prestazioni delle applicazioni.
  • Unified Virtual Addressing (UVA) – fornisce un singolo spazio unificato di indirizzamento per la memoria di sistema principale e le memorie delle GPU. Questa soluzione rende più rapida e semplifica la programmazione in parallelo.
  • Librerie di primitive e modelli C++ Thrust – offrono una raccolta di potenti strutture dati e algoritmi paralleli C++ open source che semplificano la programmazione agli sviluppatori di C++. Grazie a Thrust, le routine quali l'ordinamento parallelo sono da 5 a 100 volte più rapide rispetto alla Standard Template Library (STL) e ai Threading Building Blocks (TBB).

"Nuove caratteristiche quali Unified Virtual Addressing e la maggiore rapidità delle comunicazioni tra GPU facilitano gli sviluppatori che vogliono sfruttare le capacità di parallel computing delle GPU", ha dichiarato John Stone, Senior Research Programmer, University of Illinois, Urbana-Champaign.

"Avere accesso al GPU Computing tramite l'interfaccia dei template standard aumenta nettamente la produttività di una vasta gamma di operazioni, dalla semplice generazione di flussi di cassa ai calcoli più complessi con i modelli del mercato Libor, rendite variabili o gli aggiustamenti della valutazione del credito", ha dichiarato Peter Decrem, Direttore dei Rates Products per Quantifi. "La libreria C++ di Thrust ha considerevolmente ridotto le difficoltà di accesso prendendosi cura delle funzionalità di basso livello quali l'accesso alla memoria e la sua assegnazione. Questo consente agli esperti di informatica per i servizi finanziari di concentrarsi sullo sviluppo di algoritmi in un ambiente ottimizzato dalle GPU".

La nuova release 4.0 dell'architettura CUDA comprende molte altre caratteristiche e capacità fondamentali, fra cui:

  • Integrazione di MPI con le applicazioni CUDA – le implementazioni di MPI modificate quali OpenMPI spostano automaticamente i dati da e per la memoria GPU usando Infiniband quando un'applicazione esegue o riceve una chiamata MPI.
  • Condivisione multi-thread delle GPU – più thread host delle CPU possono condividere contesti su una singola GPU, semplificando la condivisione di una singola GPU da parte delle applicazioni multi-thread.
  • Condivisione multi-GPU di un singolo thread di CPU – un singolo thread host di CPU può accedere a tutte le GPU di un sistema. Gli sviluppatori possono facilmente coordinare il lavoro su più GPU per operazioni quali gli scambi "halo" nelle applicazioni.
  • Nuova immagine NPP e libreria Computer Vision – una ricca serie di operazioni di trasformazione delle immagini che permette lo sviluppo rapido di applicazioni di imaging e computer vision.
  • Capacità nuove e migliorate
    • Auto-analisi delle prestazioni nel Visual Profiler
    • Nuove caratteristiche in cuda-gdb e aggiunta del supporto di MacOS.
    • Aggiunta del supporto di caratteristiche di C++ quali new/delete e le funzioni virtuali
    • Nuovo disassembler di binari per GPU

Una RC (Release Candidate) di CUDA Toolkit 4.0 sarà resa disponibile gratuitamente a partire dal 4 marzo 2011- Per ottenerla è sufficiente iscriversi al CUDA Registered Developer Program all'indirizzo: www.nvidia.it/paralleldeveloper. Il CUDA Registered Developer Program offre agli sviluppatori di applicazioni in parallelo una straordinaria quantità di strumenti, risorse ed informazioni che consentono di massimizzare il potenziale di CUDA.

Per ulteriori informazioni sulle caratteristiche e sulle capacità di CUDA Toolkit e delle applicazioni GPGPU, visitare l'indirizzo: www.nvidia.it/cuda.



NVIDIA today announced the latest version of the NVIDIA® CUDA® Toolkit for developing parallel applications using NVIDIA GPUs.

The NVIDIA CUDA 4.0 Toolkit was designed to make parallel programming easier, and enable more developers to port their applications to GPUs. This has resulted in three main features:

  • NVIDIA GPUDirect™ 2.0 Technology -- Offers support for peer-to-peer communication among GPUs within a single server or workstation. This enables easier and faster multi-GPU programming and application performance.
  • Unified Virtual Addressing (UVA) -- Provides a single merged-memory address space for the main system memory and the GPU memories, enabling quicker and easier parallel programming.
  • Thrust C++ Template Performance Primitives Libraries -- Provides a collection of powerful open source C++ parallel algorithms and data structures that ease programming for C++ developers. With Thrust, routines such as parallel sorting are 5X to 100X faster than with Standard Template Library (STL) and Threading Building Blocks (TBB).

"Unified virtual addressing and faster GPU-to-GPU communication makes it easier for developers to take advantage of the parallel computing capability of GPUs," said John Stone, senior research programmer, University of Illinois, Urbana-Champaign.

"Having access to GPU computing through the standard template interface greatly increases productivity for a wide range of tasks, from simple cashflow generation to complex computations with Libor market models, variable annuities or CVA adjustments," said Peter Decrem, director of Rates Products at Quantifi. "The Thrust C++ library has lowered the barrier of entry significantly by taking care of low-level functionality like memory access and allocation, allowing the financial engineer to focus on algorithm development in a GPU-enhanced environment."

The CUDA 4.0 architecture release includes a number of other key features and capabilities, including:

  • MPI Integration with CUDA Applications -- Modified MPI implementations automatically move data from and to the GPU memory over Infiniband when an application does an MPI send or receive call.
  • Multi-thread Sharing of GPUs -- Multiple CPU host threads can share contexts on a single GPU, making it easier to share a single GPU by multi-threaded applications.
  • Multi-GPU Sharing by Single CPU Thread -- A single CPU host thread can access all GPUs in a system. Developers can easily coordinate work across multiple GPUs for tasks such as "halo" exchange in applications.
  • New NPP Image and Computer Vision Library -- A rich set of image transformation operations that enable rapid development of imaging and computer vision applications.
  • New and Improved Capabilities
    • Auto performance analysis in the Visual Profiler
    • New features in cuda-gdb and added support for MacOS
    • Added support for C++ features like new/delete and virtual functions
    • New GPU binary disassembler

A release candidate of CUDA Toolkit 4.0 will be available free of charge beginning March 4, 2011, by enrolling in the CUDA Registered Developer Program at: www.nvidia.com/paralleldeveloper. The CUDA Registered Developer Program provides a wealth of tools, resources, and information for parallel application developers to maximize the potential of CUDA.





Source: NVIDIA Press Release
Links
 TAG: parallelo  |  programmazioneIndice Tag  
  News successiva   News precedente
 GeForce Overclocking & Overvolting: NVIDIA Inspector 1.95.5   ASUS mostra la motherboard ROG Rampage III Black Edition 
  Altre news che ti potrebbero interessare Indice News  
 Microsoft pubblica delle guide per imparare a programmare 
 CudaText 1.24.5.0 è un editor di sviluppo open source con plug-in in Python 
 Imagination Technologies Launches Programmable Shader... 
 HWSetup.it off line per manutenzione non programmata 
 Crytek pubblica nuovi screenshots del motore grafico CryEngine V 
 NVIDIA: nelle università cinesi si studierà la programmazione CUDA 
      Contatti

      Pubblicità

      Media Kit
      Community HWSetup.it

      Condividi sui social

      Condividi via email
      Feed RSS

      Note legali

      Privacy
      Sitemap

      Translator

      Links
      Siti Partner:

      3dfxzone.it      amdzone.it      atizone.it

      forumzone.it      nvidiazone.it      unixzone.it
Le pagine di HWSetup.it sono generate da un'applicazione proprietaria di cui è vietata la riproduzione parziale o totale (layout e/o logica). I marchi e le sigle in esso citate sono di proprietà degli aventi diritto.