Intervista a Manuel Ujaldón Martínez: Premio NVIDIA CUDA Fellow

Manuel Ujaldon Martinez

Manuel Ujaldón (a sinistra) insieme ad altri esperti di computer iberoamericani

El Il dottor Manuel Ujaldón Martínez è il primo spagnolo a vincere un premio internazionale CUDA Fellow assegnato da NVIDIA. Ujaldón ha accettato di condurre un'intervista per il nostro portale in cui ci fornisce informazioni interessanti sui suoi progetti e sul suo lavoro, nonché sul suo rapporto con GNU Linux.

Manuel Ujaldón è professore presso il Dipartimento di Computer Architecture dell'UMA (Università di Malaga),  autore di numerosi libri e tutorial, relatore a convegni e tiene corsi interessanti. Per tutto questo ampio ed eccellente lavoro, Manuel ha vinto numerosi premi e riconoscimenti.

LinuxAdictos: La prima domanda è quasi inevitabile. Di solito usi GNU Linux? Quale distribuzione?

Manuel Ujaldon Martinez: Sono sempre stato un devoto di Linux. Ora utilizzo le distribuzioni Linux installate dai miei tecnici Dipartimento presso l'UMA, dove predominano Ubuntu e SUSE. All'inizio, ho scelto Red Hat / Fedora.

IL: Capisco che tu sia il primo spagnolo a vincere il premio internazionale CUDA Fellow di NVIDIA. Tre riconoscimenti altri (Centro di ricerca CUDA e due Centri di insegnamento CUDA) sono caduti sull'Università di Malaga, dove lavora. Innanzitutto congratulati con te e con l'UMA dal nostro blog. Come è iniziato tutto questo viaggio con CUDA?

MU: Per prima cosa sono arrivati ​​i premi all'istituto, in cui ho lavorato come ricercatore principale. E infine, il premio individuale. La storia è riassunta in quella frase di Voltaire,
"La fortuna è quando la preparazione incontra l'opportunità." Nel 2003, durante il mio primo soggiorno alla Ohio State University, ho imparato a implementare codice scientifico sulla GPU in modo autodidatta e artigianale, prima con shader e poi con Cg. Nel 2005 ho finito il libro dove ho documentato l'intero processo. Ho solo pensato di trasmetterlo agli studenti di i miei corsi estivi, ma poco dopo è nata CUDA e tutto è cambiato. Nel 2008 sono stati scritti più di 4.000 articoli scientifici sul fenomeno CUDA (nel 2014 hanno superato i 60.000), e ho ricevuto il primo riconoscimento da Nvidia, una “Professor Partnership” per la quale hanno donato un server Tesla S2050 all'UMA con 4 high -end GPU. Era circondato da ottimi collaboratori, nell'UMA, nello Stato dell'Ohio,… Quel talento ha prodotto tutti i premi che hai menzionato. Dovevi solo tirare il carrello.
Nel 2015, c'è un download di CUDA SDK ogni 9 secondi e il censimento delle GPU che eseguono CUDA supera i 600 milioni. Ora i premi sono molto più competitivi, ma sono ancora in fase di rinnovo come CUDA Fellow quattro anni dopo perché Nvidia supporta i primi utenti e quelli di noi con la passione per l'insegnamento del CUDA. Con più di 50 corsi e seminari tenuti in tutto questo tempo (alcuni dopo aver volato più di 20 ore), l'azienda apprezza il mio impegno. E mi dà la possibilità di conoscere all'interno dell'azienda leader nella mia area di ricerca, un'esperienza inestimabile. Morale: senza preparazione, non pretendere fortuna

IL: NVIDIA ha lasciato a noi Linux momenti agrodolci. Ricorderai che "Vaffanculo!" di Linus Torvalds dedicato a NVIDIA. Poco dopo Linus ha applaudito al fatto che NVIDIA abbia rilasciato i driver Tegra K1… Quale pensi sia la ragione di questi cambiamenti di atteggiamento?

MU: All'inizio, Nvidia era una società progettata per fare soldi. Ma nell'ultimo decennio, almeno nella divisione che conosco, è stata riempita di scienziati delle migliori università, principalmente Stanford. Persone come Bill Dally o David Luebke conoscono il valore aggiunto della distribuzione di conoscenza e formazione. Il profitto finalmente arriva, ma passa di lì. Ora ci sono più di 800 università registrate che insegnano CUDA e che Nvidia coccola con donazioni, borse di studio, corsi, ... Si investe nella cava, prima che si cercassero gli acquisti di stelle per vincere ora! Le aziende della Silicon Valley sanno guardare a lungo termine, molte iniziative sembrano un pozzo senza fondo, ma sono semi che germinano dopo. Capisco che per Linus Torvalds la Nvidia di 15 anni fa fosse lo stesso Lucifero. E ora fai l'occhiolino.

IL: Il suo lavoro sta contribuendo nel campo della salute. Con l'elaborazione di immagini biomediche per la rilevazione di regioni di interesse come tumori o tessuti rigenerati e l'analisi di malattie degenerative attraverso applicazioni computazionali. Dacci un'introduzione a questi interessanti progetti ...

MU: Innanzitutto i progetti non sono miei, ma un gruppo che coordino e che lavora tanto o più di me. Detto questo, non inventiamo nuove tecniche biomediche perché non siamo esperti in quell'area, cerchiamo di capire i processi più innovativi e computazionalmente costosi per accelerarli utilizzando la GPU. Le tecniche per rilevare il cancro stanno diventando più accurate e preventive, ma richiedono un'analisi delle immagini che può richiedere mesi su una CPU. In una GPU la cosa può rimanere per giorni e persino ore, il che rende il processo praticabile. Un ingegnere è un tipo pragmatico, cioè l'etimologia della parola che identifica la nostra unione, cioè ciò che “ci accende”.

IL: Abbiamo visto come l'informatica può migliorare la nostra vita e come la sta influenzando. Ma forse non così direttamente come i suoi progetti, che sembrano orientati solo a un'opera puramente umanitaria. Voglio dire, il loro scopo non è quello di sviluppare una tecnologia che possa poi essere utilizzata nel campo della salute, ma piuttosto sono progetti di e per la salute. Dietro quel grande ricercatore c'è anche una grande persona ... Non credi?

MU: Più che una grande persona, mi considero un tipo sensibile. Quando lavori in un ospedale e vedi il cancro così da vicino, è fantastico fare la tua parte. Che un paziente possa essere diagnosticato giorni e persino settimane prima è fantastico anche se non puoi fare nulla per curarlo se si ammala. Ma pensa di essere in buona salute e ciò che gli passa per la testa ogni giorno è in attesa del risultato medico. Accorciare questo calvario presuppone una tale soddisfazione che lo sviluppo di un videogioco, per esempio, non può portarmela. La società ha un po 'stigmatizzato gli informatici come tipi strani ("freakies"), ma c'è tutto. Lavorare in un ospedale ti umanizza, diventi più edonista, è un ottimo contrappunto, e ancora di più nel mondo in cui viviamo, con così tanta malsana dipendenza ...

IL: Ha continuato la ricerca sulla bioinformatica in centri negli Stati Uniti e in Australia. Nessun centro nazionale di ricerca o ospedale si è interessato al tuo lavoro per metterlo in pratica?

MU: L'anno scorso la Junta de Andalucía mi ha concesso un progetto di eccellenza per quattro anni per accelerare le applicazioni di bioinformatica nelle GPU e nell'ultimo decennio ne abbiamo avuto un altro simile. In questo caso, analizziamo l'attività neurale per rilevare lesioni cerebrali. Collaboriamo con la società Brain Dynamics del Parco tecnologico andaluso e da lì abbiamo accesso a vari ospedali della zona. L'Ospedale Clínico e l'Ospedale Carlos Haya, entrambi a Malaga, e l'Ospedale Costa del Sol, a Marbella, sono potenziali clienti e speriamo che possano beneficiare dei risultati del progetto. Per ora è prematuro fare il punto, mancano 3 anni di lavoro, ma stiamo navigando sulla buona strada e la nave ha la prua orientata verso la salute andalusa. Speriamo di giungere a una conclusione positiva. Questo è già successo con il progetto precedente.

IL: Usare la potenza di una GPU per applicazioni generiche che richiedono capacità di elaborazione elevate (GPGPU) è qualcosa che sembra essere "di moda". Perché pensi che l'industria abbia impiegato così tanto tempo per vedere che una scheda grafica valeva più di un semplice videogioco?

MU: Ogni grande innovazione deve superare una resistenza al cambiamento. I processori Intel e AMD eseguono codice x40 da 86 anni, un terribile set di istruzioni che regge solo perché l'utente apprezza la compatibilità con le versioni precedenti. Intel ne è sempre stata consapevole, ma i suoi tentativi di "modernizzare" l'x86 sono stati fallimenti così disastrosi che nel tempo ha perso la volontà di perseverare. AMD è stata molto compiacente per tutto questo tempo e negli ultimi anni ha avuto molto a che fare con la sopravvivenza. In questi è arrivato un "outsider" come Nvidia, e senza ambizioni, lo sta raggiungendo. Molti di noi volevano dimenticare una melodia stonata, soprattutto quando sembravamo condannati ad ascoltarla quotidianamente. Adesso abbiamo musica paradisiaca, e ipnotizzati apriamo gli occhi e vediamo che la GPU è una piattaforma economica, versatile (che solo giocando o gestendo il monitor, abbiamo già ammortizzato) e onnipresente (attualmente vengono vendute tre GPU per ogni CPU) . È quando pensiamo, perché no? E poi ti svegli, perché imparare a programmare in CUDA non è facile, soprattutto se vieni da Python dove tutto funziona ad alto livello e si fa dando le spalle alla piattaforma. CUDA è il trionfo del gran lavoratore, della voglia di lavorare, della tenacia, di tanti valori dismessi, ma che dobbiamo recuperare. È un miracolo che sia penetrato così profondamente e così rapidamente nella nostra società attuale.

IL: Hai iniziato più di 10 anni fa con questo, infatti nel 2005 hai pubblicato quel libro su come programmare le GPU per accelerare le applicazioni scientifiche. Era già un segreto di Pulcinella?

MU: Non credo che le persone più ottimiste avrebbero pensato allora che saremmo arrivati ​​dove siamo, non così presto. La GPU ha un tasso evolutivo molto più alto della CPU, ogni generazione è più corta e introduce più innovazioni. Ciò rende la strada più bella, ma anche più difficile per i visionari.

IL: Inoltre, sono emerse iniziative come la Fondazione HSA per gestire lo sviluppo dei sistemi HSA. Potreste spiegare ad altri mortali l'importanza dell'informatica eterogenea?

MU: La stragrande maggioranza dei processori attuali integra una CPU e una GPU sullo stesso chip. La CPU è un multi-core (pochi core complessi, circa dieci) e la GPU è un many-core (molti core semplici, circa tremila). Qual è più potente, dieci martelli o tremila bisturi? Dipende dal problema che vuoi risolvere. Ma siamo tutti d'accordo che la cosa migliore sono dieci martelli * e * tremila bisturi. Questo è il computing eterogeneo: non rinunciare a nulla. Sottoscrivi tutto e poi prova a servire il 100% delle risorse. Per occupare la CPU, avrai bisogno della vecchia scuola: C due decenni fa, Java lo scorso decennio e Python questo decennio. Per sfruttare la GPU, avrai bisogno di CUDA in questo decennio e vedremo cosa succederà dopo. Molti codici hanno un aspetto migliore sulla CPU e altri sulla GPU. Se sai programmare solo uno dei processori, perdi la dualità e l'hai pagato quando hai acquistato il PC. Ogni giorno che passa, il programmatore che non conosce la GPU è sempre più armato e l'azienda preferirà sempre un lavoratore ambidestro.

IL: Gli sviluppatori Linux stanno prestando particolare attenzione a ARM ultimamente. È a causa di qualcosa. Questa famiglia spazza i dispositivi mobili. Ma sembra avere un interesse oltre la bassa potenza, ad esempio, AMD ha svelato la sua architettura K12 e viene annunciata la serie A per server Opteron. ARM è il futuro? Pensi che conquisterà il settore HPC e il settore dell'home computing sostituendo AMD64, SPARC, POWER,…?

MU: Più che un basso consumo, quello che fornisce ARM è un nuovo modello, perché non ti vende il chip, ma il progetto prevede insieme alla licenza per costruirlo. Gli altri personaggi che hai menzionato sono più un prodotto finale proprietario. È come se un ristorante ti vendesse una paella e un altro la ricetta da fare a casa (ma garantendoti che risulterà buona come quella del ristorante). Alla lunga, se ti piace la paella, è meglio investire nella seconda opzione, ti divertirai di più e ti costerà di meno. Inoltre, vendendo la ricetta ti fai più amici, perché il giorno in cui la paella va a male, il cliente si assume la sua colpa, non può buttarla nel ristorante. È così che ARM raccoglie clienti soddisfatti e questo è sempre un ottimo investimento. Un buon esempio è la Nvidia Tegra che hai menzionato prima. Portano un processore ARM e competono con i loro chip nello stesso segmento a basso consumo in cui ARM è il re. Quando Nvidia è entrata in quel mercato, ARM l'ha aiutata dandogli una ricetta chiave. Ora, ARM guadagna con il Tegra che Nvidia vende. Per essere innovativa, e per come ha implementato le sue idee, ARM merita la sua fortuna (e inoltre è un'azienda europea). Spero che continui a crescere.

IL: HPC è territorio * nix, più specificamente Linux. Una delle risposte a questa tendenza potrebbe essere la sua open source, ma lo fa anche FreeBSD e tuttavia la quota parla da sola. Puoi giustificare questo ruolo dominante di Linux nell'HPC?

MU: Per me, FreeBSD è un sostituto di Linux. Se hai il sapore puro, perché cambiare. E al di fuori del mondo Linux, non vedo Windows o MacOS incombere su HPC. Seguo top20.org da 500 anni ed erano sempre semplici compagnie. La comunità HPC è composta da scienziati e ogni pezzo a cui ci iscriviamo si è guadagnato il loro credito, non solo il sistema operativo. Sai cosa usano gli scienziati per scrivere i nostri articoli? Lattice. Nel nostro mondo, Word ha un mercato difficile. Eppure, nell'informatica degli utenti, Word vince di gran lunga.

IL: L'Università di Malaga è classificata al 22 ° posto nella classifica delle università che contribuiscono maggiormente al software libero. Cosa puoi dire di questa posizione come membro dell'UMA?

MU: Posso dire di essere circondato da colleghi brillanti che potrebbero mostrare molto di più delle loro creazioni software. E non li ho mai visti escogitare un piano economico per arricchirsi. Un lavoro ben fatto nobilita più del denaro.

IL: Di solito terminiamo l'intervista con una specie di gioco. Consiste nel formulare una breve opinione personale sui seguenti termini:

MU: Open source: lavorare per fornire beni immateriali, di difficile comprensione per chi si muove per parametri economici. Là, le cose migliori della vita sono gratis.
OpenGL: il primo standard per la programmazione grafica, a cui dobbiamo tanto.
OpenCL: lo standard per la programmazione GPGPU, una bellissima storia che sorprendentemente cammina verso il fiasco in quanto non inverte la tendenza presto. La vita non è sempre giusta.
Arduino: L'OpenGL del livello hardware, a cui sicuramente dovremo anche molto tra qualche anno.
Linus Torvalds: un guru. Di seguito i due migliori, per me Steve Jobs e Robert Noyce, ma tra i 50 personaggi più influenti nella storia della tecnologia.

Spero vi sia piaciuta questa nuova intervista nella serie che pubblicheremo. E incoraggio coloro che sono interessati a iscriversi a 11a edizione del corso de Programmazione GPU con CUDA. È organizzato dallo stesso Ujaldón e si svolgerà a luglio presso l'UMA. Inoltre, ha l'approvazione del Centro di insegnamento CUDA, che lo rende unico in Spagna.

Il corso è aperto a chiunque abbia una minima conoscenza della programmazione in C. Partecipanti impara a programmare le schede grafiche usando CUDA. Godranno di 60 ore, per lo più pratiche. Inoltre, sarà sorteggiata una scheda grafica GeForce GTX 480 donata da NVIDIA.


Lascia un tuo commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

*

*

  1. Responsabile del trattamento: AB Internet Networks 2008 SL
  2. Scopo dei dati: controllo SPAM, gestione commenti.
  3. Legittimazione: il tuo consenso
  4. Comunicazione dei dati: I dati non saranno oggetto di comunicazione a terzi se non per obbligo di legge.
  5. Archiviazione dati: database ospitato da Occentus Networks (UE)
  6. Diritti: in qualsiasi momento puoi limitare, recuperare ed eliminare le tue informazioni.

  1.   saeron suddetto

    Ho avuto la fortuna di avere Manuel come professore all'università, e senza dubbio il suo interesse nel diffondere la programmazione in cuda è immenso, si merita questo riconoscimento che tarda ad arrivare, congratulazioni.