https://bodybydarwin.com
Slider Image

La màquina de ciències més ràpida del món

2020

Amb el llançament del proper rànquing TOP500 dels supercomputadors més ràpids del món a poques setmanes de distància, el Laboratori Nacional Oak Ridge (ORNL) ha desplegat aquesta setmana oficialment Titan, una màquina de 20 petaflop. Es preveu que Titan acabi amb Sequoia, una altra màquina del Departament d'Energia ubicada als Laboratoris Nacionals de Lawrence Livermore, posant els Estats Units amb seguretat en la part superior de la piràmide de supercomputació (Sequoia s'espera que ocupi el lloc número dos) després de passar els darrers anys sovint perseguint la Xina i el Japó.

Però, més enllà dels drets de vaga, Titan és alguna cosa més. Es tractarà de la màquina de ciència oberta més ràpida del món, donant temps a científics de la indústria, acadèmics i laboratoris governamentals de tot el país que necessiten grans capacitats informàtiques per donar sentit a conjunts de dades complexos en sis àrees bàsiques: canvi climàtic, astrofísica, ciència de materials, biocombustibles, combustió i sistemes d’energia nuclear. I de manera crítica, incorpora unitats de processament gràfics (GPU) juntament amb els nuclis convencionals de processador (CPU) convencionals desplegats normalment en supercomputadors d’aquest tipus. Aquest matrimoni reeixit de CPU i GPUs podria tenir implicacions de gran abast per al futur de la supercomputació, ja que els científics s’esforcen a desenvolupar una màquina de ciència a gran escala de nova generació.

"Apostem per la granja per aquest entorn informàtic híbrid i hem tingut èxit." Titan serà avui el major i més ràpid ordinador de ciències obertes segons Steve Scott, oficial de tecnologia de Tesla, la unitat de negoci de NVIDIA responsable del subministrament de GPUs de Titan. " pot o no separar Sequoia. És bo tenir aquests títols, però no és tan important com la ciència que s'està fent a la màquina ".

Per a la col·laboració que va desenvolupar Titan, es planteja una reflexió sobre si el seu ordinador rellotja amb més rapidesa que el campió que regna a Lawrence Livermore. Sequoia, un sistema IBM BlueGene / Q, està dissenyat per dur a terme investigacions classificades per a la DOE i, per tant, aviat sortirà del radar, al darrere de la cortina del secret estatal, on l’investigador mitjà tindrà dificultat per accedir-hi. Titan, en canvi, està dissenyat tenint en compte la investigació oberta. I ja està a punt per calcular a un nivell que la comunitat científica investigadora no ha vist mai abans.

Titan és capaç de produir 20.000 bilions de càlculs per segon. Per fer-vos una idea de fins a quin punt i amb quina velocitat ha viatjat aquesta capacitat computacional, considereu que el 2009 ORNL també era la llar del supercomputador més ràpid del món, anomenat Jaguar (Titan és en realitat una actualització de Jaguar més que un sistema des de zero, tot i que l’arquitectura de Titan és molt diferent). Jaguar era un sistema de 2, 3 petaflops ("flops" significa operacions en punt flotant per segon i és la mesura del rendiment de supercomputació) quan va superar la llista mundial d'ordinadors més ràpids. En només tres anys, Titan ha eclipsat Jaguar per deu vegades.

Aquest salt endavant es va habilitar en gran mesura repensant la forma en què ORNL crea supercomputadors. Es podria millorar la capacitat d’informàtica de deu vegades mitjançant la creació d’un ordinador deu vegades més gran amb deu vegades més CPU, però fer-ho no seria pràctic en molts nivells. A banda dels reptes de maquinari inherents a una màquina tan gran, les necessitats d’energia del Jaguar de 2, 3 petaflop eren equivalents a les de 7.000 llars americanes. Un Jaguar de 20 petaflop requeriria quelcom semblant a 60 megavatios o 60.000 llars d’energia per funcionar. Per arribar a Titan fins on es troba ara sense construir un gran consum d’energia va necessitar molta col·laboració, una confiança més gran en un nou tipus de règim de maquinari i una dosi de moixie bastant greu.

"El 2009, vam inventar un nucli multi-nucli híbrid abans que fins i tot tinguéssim una paraula, segons diu Jeffrey Nichols". A partir d'aquí vam fer un salt de fe de tres anys que ha donat els seus fruits en un salt de deu vegades en un rendiment, un cinc. "Deixa saltar en l'eficiència".

Nichols es refereix a la integració de xips gràfics, GPUs, en l'arquitectura de CPU convencional. Les GPU s’adapten exclusivament a determinades tasques, i són especialment útils per manejar diversos càlculs de dotze o fins i tot centenars per segon. Les CPU no són especialment bones en aquest tipus de computació, tot i que encara són molt adequades a les tasques de computació convencionals, com ara el funcionament fonamental de línies de codi. Per construir Titan, ORNL va reunir el fabricant de supercomputadors Cray i el fabricant de GPU NVIDIA per crear un sistema híbrid que conté 18.688 CPU Micro Advanced Devices 16-core i 18.688 GPU Tesla NVIDIA que funcionarien conjuntament per completar tasques més ràpidament i amb una eficiència molt més gran. La investigació bàsica hi va haver, però el repte va consistir a alinear totes les peces -40.000 de totes- i fer-les funcionar.

Tothom que participava en el desenvolupament de Titan estava treballant amb cert grau de fe aquí, explica Nichols, i tothom tenia la possibilitat de fracassar. Cray va haver d'exposar-se a un nou tipus de maquinari i interfície que seria capaç de parlar entre CPU i GPU, cosa que mai no havia fet abans. NVIDIA, que fa temps que reclama que les seves GPU tinguin importants capacitats que s’apliquen molt més enllà de la consola de jocs o el PC, va arribar el moment de demostrar que aquest tipus de computació híbrida es podria produir realment a l’escala de supercomputació. I, potser, ORNL estava en la posició més precària de tots, amb el seu paper de lideratge en la supercomputació global de la línia. Si Titan no hagués pogut entrar en línia a temps (o en absolut), hauria estat un contratemps important, potser un contratemps plurianual, anys que seria molt difícil compensar en el camp de supercomputació ràpid. "Per a una organització amb una missió que s'ha de complir, que no pot permetre's una acrobàcia, apostem per la granja en aquest entorn informàtic híbrid i vam tenir èxit segons Scott.

Aquest llançament de daus està donant els seus fruits de forma senzilla. En lloc de crear un ordinador deu vegades més gran que la de Jaguar, l'actualització a CPU de 16 nuclis i GPUs que acceleren el rendiment permet a Titan incloure els mateixos 200 gabinets del servidor en els quals s'incorpora Jaguar. I, tot i que absorbeix més potència que el seu predecessor, Titan només necessita uns 9 megavatios, una fracció del que caldria si es tractés d’una arquitectura de tot el CPU amb la mateixa velocitat.

Això continua sent una factura energètica anual de 10 milions de dòlars, però quan la compareu amb el camp actual de màquines de tot el món i l’imperatiu de mantenir-nos al dia amb la competència (especialment amb un cert competidor a tot el Pacífic), Titan és un gran pas endavant per a la supercomputació nord-americana. El DOE intenta crear una capacitat de supercomputació excepcional (esperem el 2020) de la mateixa manera que la Xina, el Japó, l’Índia i diversos altres països d’Europa i d’arreu del món estan intentant superar-los als Estats Units (el rendiment exaflop és la següent fita important a rendiment, igual a 1.000 petaflops). A diferència d'alguns d'aquests competidors, DOE intenta fer-ho tant en un pressupost financer tan ajustat com en un pressupost energètic ajustat.

"La diferència entre el que veiem als Estats Units i en altres llocs és que estem intentant arribar a la màxima extensió dins dels 20 megawatts de potència que diu Nichols. Es tracta d'una potència per valor d'uns 20 milions de dòlars anuals a preus actuals. La Xina no té aquest tipus de limitacions fiscals o energètiques en aquest moment, fent que el salt de Titan en el rendiment i l'eficiència sigui encara més significatiu tant des de la perspectiva de la investigació, com del desenvolupament i la seguretat nacional, tot i així, per assolir el rendiment exaflop del pressupost esmentat es requereix una millora de 50 vegades en capacitat amb la mateixa quantitat d’energia. Desconcertant, segur, però Nichols i els seus col·laboradors d’ORNL, Cray, nVidia i altres llocs ja treballen amb solucions.

"Teníem la màquina més gran el 2009 i ja estàvem pensant en la màquina del 2012 que diu Nichols. I ja estem pensant en la màquina del 2016".

El Complex de Mendocino és el foc més gran de Califòrnia registrat, de moment

El Complex de Mendocino és el foc més gran de Califòrnia registrat, de moment

James Bond fa més de mig segle que ensenya a fumar els nens

James Bond fa més de mig segle que ensenya a fumar els nens

Els aliments casolans per a gossos poden privar les mascotes de nutrients essencials

Els aliments casolans per a gossos poden privar les mascotes de nutrients essencials